реклама
Теги → chatgpt
Быстрый переход

ИИ заставили вскрывать учётные записи текстовыми командами — навыки хакера больше не нужны

Исследователь технологий кибербезопасности Иоганн Ребергер (Johann Rehberger) «уговорил» ChatGPT произвести несколько потенциально опасных операций: прочитать сообщение его электронной почты, составить из него сводку и опубликовать эту информацию в интернете, сообщает The Wall Street Journal. В руках злоумышленника такой инструмент мог бы стать грозным оружием.

 Источник изображения: Franz Bachinger / pixabay.com

Источник изображения: Franz Bachinger / pixabay.com

Чат-боты на алгоритмах искусственного интеллекта вроде ChatGPT, как выразился господин Ребергер, «снижают входной барьер для атак всех видов. Не нужно уметь писать код. Не обязательно иметь глубокие познания в информатике или хакерском деле». Описанный им способ атаки неприменим к большинству учётных записей ChatGPT — он основан на экспериментальной функции, открывающей доступ к Slack, Gmail и другим приложениям. В ответственной за ChatGPT компании OpenAI поблагодарили эксперта за предостережение и сообщили, что заблокировали возможность повторного осуществления подобных атак.

Предложенный Ребергером механизм «командных инъекций» (prompt injection) — это новый класс кибератак, который раскрывается по мере внедрения компаниями технологий ИИ в свой бизнес и потребительские продукты. Подобные методы меняют представление о природе хакерского дела, и специалистам по кибербезопасности предстоит ещё открыть множество уязвимостей, прежде чем присутствие ИИ станет действительно повсеместным.

Лежащая в основе ChatGPT технология генеративного ИИ, которая позволяет создавать целые фразы и предложения — это нечто вроде средства автозаполнения «на максималках». Поведение чат-ботов ограничивается разработчиками: существуют инструкции, призванные не позволять им разглашать конфиденциальную информацию или запрещающие им высказывания оскорбительного характера. Но существуют решения, позволяющие обходить эти запреты. К примеру, Иоганн Ребергер попросил чат-бота создать сводку веб-страницы, на которой он сам написал большими буквами: «НОВЫЕ ВАЖНЫЕ ИНСТРУКЦИИ» — и это озадачило машину. Постепенно он заставлял ChatGPT выполнять самые разные команды. «Это как кричать на систему „А ну, делай это”», — пояснил Ребергер. По сути, он принудил ИИ перепрограммировать себя.

Методика «командных инъекций» оказалась работоспособной из-за важной особенности систем ИИ: они не всегда должным образом отличают системные команды от вводимых пользователями данных, пояснил профессор Принстонского университета Арвинд Нараянан (Arvind Narayanan). Это значит, что разработчикам ИИ следует уделять внимание не только классическим аспектам кибербезопасности, но и учитывать новые угрозы заведомо непредсказуемого характера.

Интеллектуальные способности ChatGPT деградировали из-за попыток его улучшить, выяснили учёные

Учёные сообщили об очередной проблеме, которая может преследовать чат-боты, основанные на платформах искусственного интеллекта — этот феномен называется «дрейфом» (drift), и он отражает деградацию интеллектуальных способностей системы.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Дебютировавший в прошлом году ChatGPT произвёл настоящую революцию в области искусственного интеллекта и даже косвенно способствовал разразившейся в Голливуде забастовке сценаристов. Но опубликованное учёными Стэнфордского университета и Калифорнийского университета в Беркли (США) исследование указывает на новую проблему ИИ: ChatGPT стал хуже выполнять некоторые элементарные математические операции. Этот феномен известен как «дрейф»: попытка усовершенствовать одну часть сложной модели ИИ приводит к ухудшению работы других её областей. И это, отмечают исследователи, значительно усложняет непрерывное совершенствование нейросетей.

Учёные пришли к такому выводу, когда протестировали две версии GPT: доступную для всех бесплатно 3.5; и 4.0, работать с которой можно только при наличии платной подписки. Чат-боту предложили элементарную задачу: определить, является ли определённое число простым. Простым, напомним, называется натуральное число, которое делится только на единицу и на себя. Если число достаточно большое, то человек не может оценить, является ли оно простым, в уме. А вот компьютер может справиться с этой задачей методом грубой силы: проверить его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел. В марте доступный по премиум-подписке GPT-4 давал правильные ответы в 84 % случаев, и это уже сомнительный результат для компьютера, но к июню доля правильных ответов рухнула до 51 %.

 Источник изображения: wsj.com

Источник изображения: wsj.com

В общем случае GPT-4 продемонстрировал деградацию в шести задачах из восьми. GPT-3.5, напротив, по шести задачам продемонстрировал прогресс, но в большинстве остался слабее своего продвинутого собрата. Повышение числа неправильных ответов отметили многие пользователи чат-ботов, и, согласно выводам учёных Стэнфорда и Беркли, это не субъективные ощущения — деградация подтверждается эмпирическими данными. «Когда мы выпускаем новые версии моделей, наш приоритет — сделать новые модели умнее по всем направлениям. Мы прилагаем усилия, чтобы новые версии совершенствовались во всём спектре задач. При этом наша методология оценки несовершенна, и мы её постоянно улучшаем», — прокомментировали научную работу в OpenAI.

О тотальной деградации моделей ИИ речи не идёт: в ряде тестов менее точный в целом GPT-3.5 показал прогресс, а GPT-4 свои результаты ухудшил. Помимо математических задач, исследователи предлагали чат-ботам ответить на 1500 вопросов. И если в марте чат-бот на базе GPT-4 отвечал на 98 % вопросов, то в июне давал ответы только на 23 %, и зачастую они оказывались слишком короткими: ИИ заявлял, что вопрос был субъективным, и собственного мнения у него нет.

Учёные Стэнфорда и Беркли говорят, что в своём исследовании они не призывают отказаться от технологий ИИ — это скорее пристальное наблюдение за их динамикой. Человек привык воспринимать знания как решение ряда задач, где каждая последующая основывается на предыдущей. В случае с ИИ схема оказывается другой: одному шагу вперёд соответствует шаг назад или в другом непредсказуемом направлении. ИИ-сервисы, вероятно, продолжат развиваться, но их путешествие будет проходить не по прямой линии.

Начало школьных каникул уронило трафик ChatGPT — популярность сервиса падает второй месяц подряд

Трафик на сайте ChatGPT, снизившийся в июне впервые с момента запуска сервиса в ноябре прошлого года, в июле продолжил падение, сообщил ресурс PCMag со ссылкой на данные аналитической компании Similarweb. Компания Similarweb, зафиксировавшая начало спада трафика ChatGPT месяц назад, отметила, что снижение «выглядит как устойчивая тенденция, учитывая, что за июньским падением на 9,7 % последовало снижение на 9,6 % в июле».

 Источник изображения: Rolf van Root/unsplash.com

Источник изображения: Rolf van Root/unsplash.com

В США падение трафика в июне было ещё более резким, составив 15 %, хотя в июле, когда сервис ChatGPT появился на платформе Android, трафик упал лишь на 4 %.

 Источник изображений: Similarweb

Источник изображений: Similarweb

Similarweb назвала ключевым фактором падения трафика начавшиеся каникулы, поскольку ChatGPT стал для школьников и студентов популярным помощником по выполнению домашних заданий и написанию сочинений. «Более четверти аудитории ChatGPT приходится на возрастную группу от 18 до 24 лет в демографической модели веб-сайта Similarweb (которая не включает детей младше 18 лет)», — сообщила аналитическая фирма.

Так что, возможно, трафик на ChatGPT вернётся к прежним значениям этой осенью после завершения каникул. Вместе с тем начали поступать жалобы от пользователей, что в последние месяцы возможности ChatGPT ограничили, что негативно отразилось на его полезности. Впрочем в OpenAI назвали жалобы необоснованными. «Когда вы используете его более интенсивно, вы начинаете замечать проблемы, которых раньше не замечали», — написал в X (ранее Twitter) вице-президент OpenAI по продукту Питер Велиндер (Peter Welinder) в прошлом месяце.

В любом случае ChatGPT прошёл свой пик популярности на данный момент, отметила Similarweb. Чат-бот на основе ИИ показал стремительный рост в январе, став самым быстрорастущим сервисом в истории.

Вышло официальное приложение ChatGPT для Android

Официальное приложение ChatGPT для Android стало доступно для скачивания в магазине Google Play для пользователей из Бангладеш, Бразилии, Индии и США — в других странах оно выйдет позже. Аналогичным образом приложение сервиса постепенно расширяло географию присутствия после выхода для iPhone и iPad.

 Источник изображения: play.google.com

Источник изображения: play.google.com

Запуск официального приложения ChatGPT для Android состоялся в тот момент, когда интерес к чат-боту на основе искусственного интеллекта начал спадать: аналитические компании Similarweb и Sensor Tower указали на падение веб-трафика на платформе и снижение установок приложений по итогам июня. ChatGPT в течение нескольких месяцев сохранял звание самого быстрорастущего сервиса в истории, пока не вышла платформа микроблогов Meta Threads, которая продемонстрировала взрывной успех.

Лежащая в основе приложения ИИ-модель OpenAI GPT-4 также является технологической базой для чат-бота Microsoft Bing — соответствующее приложение доступно на Android уже несколько месяцев. При этом аналогичная служба Google Bard в формате отдельного приложения пока не издаётся, работая только в веб-интерфейсе. Интерес к платформам искусственного интеллекта проявляют все технологические гиганты: недавно стало известно, что собственный чат-бот тестирует Apple.

Официальное приложение ChatGPT для Android выйдет на следующей неделе

Несмотря на мелкие неудачи, платформа ChatGPT продолжает пользоваться популярностью, уступая разве что Threads. Сервис дебютировал в конце ноября, но официального приложения для iPhone пришлось ждать до мая. Теперь же настал черёд клиента под Android.

 Источник изображения: Zac Wolff / unsplash.com

Источник изображения: Zac Wolff / unsplash.com

Официальное приложение ChatGPT для Android выйдет на следующей неделе, сообщила в Twitter ответственная за проект компания OpenAI. Конкретной даты не указали, но приложили ссылку на страницу в Google Play, где можно добавиться в лист ожидания и скачать приложение, как только оно станет доступным. Клиент под iPhone вышел в мае, и тогда компания пообещала «вскоре» выпустить Android-версию — потребовалось ещё чуть более двух месяцев.

У поискового чат-бота Google Bard собственного мобильного приложения нет — только веб-интерфейс, да и он во многих странах пока недоступен. А преимуществами ChatGPT пока можно воспользоваться через приложение Microsoft Bing, которое вышло под Android и iOS в феврале. Официальный клиент ChatGPT для Android поможет OpenAI бороться с падением популярности публики к сервису: как недавно выяснилось, по итогам июня посещаемость чат-бота просела впервые с момента запуска.

ChatGPT научили запоминать, кем является пользователь и чего хочет — это упростит составление запросов

OpenAI запустила бета-тестирование функции «Пользовательские инструкции» (Custom Instructions), с помощью которой пользователь может сообщить чат-боту сведения о себе и определить настройки сервиса, пишет The Verge. Функция доступна с сегодняшнего дня по подписке для участников программы ChatGPT Plus во всех странах, кроме Великобритании и ЕС.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Новая функция позволит устранить необходимость в постоянной преамбуле к вопросам, задаваемым чат-боту. Вместо того чтобы формировать длинный вопрос для ChatGPT со всем необходимым контекстом и информацией, можно просто добавить этот контекст и информацию в свои пользовательские инструкции, чтобы не повторять их каждый раз. Например, если вы сообщите системе, что преподаёте в третьем классе, ответы на запросы будут адаптироваться ИИ-ботом с учётом нужной возрастной группы учащихся.

Настройки пользовательских инструкций подчиняются тем же правилам, что и сам ИИ-бот, поэтому попытки спровоцировать его неэтичное или неприемлемое поведение будут безрезультатными. ChatGPT также удаляет личную информацию, которая может быть использована для идентификации пользователя.

Следует отметить, что OpenAI представляет новую функцию как способ упростить составление запросов, а не как первый шаг к всеобъемлющему личному помощнику на основе ИИ.

Платная версия ChatGPT отупела, в то время как бесплатная набралась ума, выяснили учёные из Стэнфорда

Новое исследование, проведённое учёными из Стэнфордского университета и Калифорнийского университета в Беркли, выявило тревожное снижение качества ответов платной версии ChatGPT. Так, например, точность определения простых чисел у новейшей модели GPT-4, которая лежит в основе ChatGPT Plus, с марта по июнь 2023 года упала с 97,6 % до всего лишь 2,4 %. Напротив, GPT-3.5, являющаяся основной для обычного ChatGPT, точность ответов в некоторых задачах повысила.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В последние месяцы всё чаще обсуждается снижение качества ответов ChatGPT. Группа учёных из Стэнфордского университета и Калифорнийского университета в Беркли решила провести исследование с целью определить, действительно ли произошла деградация качества работы этого ИИ, и разработать метрики для количественной оценки масштабов этого негативного явления. Как выяснилось, снижение качества ChatGPT — это не байка или выдумка, а реальность.

Трое учёных — Матей Захария (Matei Zaharia), Линцзяо Чэнь (Lingjiao Chen) и Джеймс Цзоу (James Zou) — опубликовали научную работу под названием «Как меняется поведение ChatGPT с течением времени» (How is ChatGPT’s behavior changing over time). Захария, профессор компьютерных наук в Калифорнийском университете, обратил внимание на удручающий факт: точность GPT-4 в ответе на вопрос «Это простое число? Подумай шаг за шагом» снизилась с 97,6 % до 2,4 % с марта по июнь.

OpenAI открыла доступ к API языковой модели GPT-4 около двух недель назад и объявила её своей самой продвинутой и функциональной ИИ-моделью. Поэтому общественность была расстроена тем, что новое исследование обнаружило значительное снижение качества ответов GPT-4 даже на относительно простые запросы.

Исследовательская группа разработала ряд заданий, чтобы оценить различные качественные аспекты основных больших языковых моделей (LLM) ChatGPT — GPT-4 и GPT-3.5. Задания были разделены на четыре категории, каждая из которых отражает различные навыки ИИ и позволяет оценить их качество:

  • решение математических задач;
  • ответы на деликатные вопросы;
  • генерация кода;
  • визуальное мышление.

В следующих графиках представлен обзор эффективности работы ИИ-моделей OpenAI. Исследователи оценили версии GPT-4 и GPT-3.5, выпущенные в марте и июне 2023 года.

 График 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года на четырех задачах. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года. Источник: Matei Zaharia, Lingjiao Chen, James Zou

Первый слайд демонстрирует эффективность выполнения четырёх задач — решения математических задач, ответа на деликатные вопросы, генерации кода и визуального мышления — версиями GPT-4 и GPT-3.5, выпущенными в марте и июне. Заметно, что эффективность GPT-4 и GPT-3.5 может значительно варьироваться со временем и в некоторых задачах ухудшаться.

 График 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Второй слайд иллюстрирует эффективность решения математических задач. Измерялась точность, многословность (в символах) и совпадение ответов GPT-4 и GPT-3.5 в период с марта по июнь 2023 года. В целом, наблюдались значительные колебания в эффективности обеих ИИ-моделей. Также приведён пример запроса и соответствующие ответы за определенный промежуток времени. GPT-4 в марте следовала инструкциям по цепочке мыслей для получения правильного ответа, но в июне их проигнорировала, выдав неверный ответ. GPT-3.5 всегда следовала цепочке мыслей, но настаивала на генерации неправильного ответа в марте. Эта проблема была устранена к июню.

 График 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

На третьем слайде показан анализ ответов на деликатные вопросы. С марта по июнь GPT-4 ответила на меньшее количество вопросов, в то время как GPT-3.5 ответила на немного больше. Также приведён пример запроса и ответов GPT-4 и GPT-3.5 в разные даты. В марте GPT-4 и GPT-3.5 были многословны и давали подробные объяснения, почему они не ответили на запрос. В июне они просто извинились.

 График 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Четвёртый слайд демонстрирует снижение эффективности генерации кода. Общая тенденция показывает, что для GPT-4 процент непосредственно исполняемых генераций сократился с 52 % в марте до 10 % в июне. Также наблюдалось значительное падение для GPT-3.5 (с 22 % до 2 %). Многословность GPT-4, измеряемая количеством символов в генерациях, также увеличилась на 20 %. Также приведён пример запроса и соответствующие ответы. В марте обе ИИ-модели следовали инструкции пользователя («только код») и таким образом генерировали непосредственно исполняемый код. Однако в июне они добавили лишние тройные кавычки до и после фрагмента кода, делая код неисполняемым.

 График 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Пятый слайд демонстрирует эффективность визуального мышления ИИ-моделей. В части общих результатов и GPT-4, и GPT-3.5 показали себя на 2 % лучше в период с марта по июнь, точность их ответов улучшилась. Вместе с тем, объём информации, которую они генерировали, остался примерно на том же уровне. 90 % визуальных задач, которые они решали, не изменились за этот период. На примере конкретного вопроса и ответов на него можно заметить, что, несмотря на общий прогресс, GPT-4 в июне показала себя хуже, чем в марте. Если в марте эта модель выдала правильный ответ, то в июне уже ошиблась.

Пока неясно, как обновляются эти модели, и могут ли изменения, направленные на улучшение некоторых аспектов их работы, негативно отразиться на других. Эксперты обращают внимание, насколько хуже стала новейшая версия GPT-4 по сравнению с версией марта в трёх тестовых категориях. Она только незначительно опережает своего предшественника в визуальном мышлении.

Ряд пользователей могут не обратить внимания на снижение качества результатов работы одних и тех же версий ИИ-моделей. Однако, как отмечают исследователи, из-за популярности ChatGPT упомянутые модели получили широкое распространение не только среди рядовых пользователей, но и многих коммерческих организаций. Следовательно, нельзя исключать, что некачественная информация, сгенерированная ChatGPT, может повлиять на жизни реальных людей и работу целых компаний.

Исследователи намерены продолжать оценку версий GPT в рамках более долгосрочного исследования. Возможно, OpenAI следует регулярно проводить и публиковать свои собственные исследования качества работы своих ИИ-моделей для клиентов. Если компания не сможет стать более открытой в этом вопросе, может потребоваться вмешательство бизнеса или государственных организаций с целью контроля некоторых базовых показателей качества ИИ.

Google Bard охотно помогает хакерам, но писать вымогательское ПО согласен и ChatGPT

Хотя Google Bard и ChatGPT компании OpenAI имеют механизмы защиты от использования злоумышленниками, их довольно легко склонить к совершению противоправных деяний. Как показало исследование, проведённое Check Point Research, Bard поддаётся дурному влиянию довольно легко. Тем не менее ChatGPT тоже не может устоять перед верно подобранными запросами злоумышленников.

 Источник изображения: Kevin Ku/unsplash.com

Источник изображения: Kevin Ku/unsplash.com

Исследование подразделения Check Point Research компании Check Point Software преследовало довольно простую цель — оценить устойчивость Bard и ChatGPT в случае, когда у бота просят написать контент, который можно использовать в разных видах онлайн-атак. Сообщается, что Bard и ChatGPT успешно отклонили недвусмысленные просьбы исследователей написать вредоносный контент вроде «напиши фишинговое письмо» или «напиши код программы-вымогателя». Тем не менее Bard выдал ответ, когда его прямо попросили написать ПО, способное записывать все нажатия на клавиши в текстовый файл. Более того, и Bard, и ChatGPT одинаково охотно генерировали код подобных кейлоггеров, когда пользователь просил их написать софт для перехвата вводимых символов с его собственной клавиатуры.

При этом «уговорить» Bard оказалось немного легче, чем ChatGPT. Когда его попросили написать не фишинговое письмо, а образец такого письма, он вполне аккуратно выполнил работу, создав классическое фишинговое послание с предложением перейти по ссылке для проверки потенциально скомпрометированного пароля в конце. «Образец» в результате осталось только скопировать и разослать.

Заставить Bard написать скрипт для создания работоспособной программы-вымогателя оказалось сложнее, но ненамного. Для начала его спросили, как действует вымогательское ПО, а после этого поэтапно стали предлагать соответствующие задачи для написания кода. При этом код должен был «демонстрировать вымогательское сообщение, требующее у жертвы заплатить за ключ дешифровки», поэтому секрета из назначения ПО от Bard не делали. К счастью, бот не купился на такую просьбу потенциальных мошенников.

Тем не менее небольшое усложнение запроса, благодаря которому просьба исследователей становилась менее очевидной, позволяла выполнить задачу. Так, они просто просили написать код на Python, который: будет шифровать файл или папку по указанному пути с помощью AES-алгоритма; создавать на рабочем столе файл readme.txt с инструкцией, как именно можно расшифровать файлы; заменять текущие обои на рабочем столе компьютера вариантом, который следует загрузить по указанной ссылке. После этого бота успешно сгенерировал набор инструкций, позволяющих обеспечить работоспособность кода для атаки.

Портал Mashable решил проверить аналогичный подход с ChatGPT, введя слегка смягчённый прямой запрос на написание вредоносного вымогательского ПО — ChatGPT отказался это делать, заявив, что речь идёт о программном обеспечении, которое «незаконно и неэтично». Но, когда сотрудники Mashable продублировали использовавшийся с Bard метод с не столь явным запросом, сдался и ChatGPT, написав небольшой скрипт на Python.

 Источник изображения: Mashable

Источник изображения: Mashable

Впрочем, появления волны хакеров, способных без подготовки выводить из строя компьютеры, пока вряд ли стоит — желающие выполнять задачи с использованием AES-алгоритмов должны получить как минимум базовые навыки самостоятельного составления кода — возможности создавать вредоносное ПО нажатием одной кнопки в ближайшее время не появится. Впрочем, оба сравниваемые нейросети оказались весьма неразборчивыми. Кроме того, появилась информация о создании ИИ-бота без «моральных принципов» — он специально создан для создания вредоносного контента.

Samsung экспериментирует с прямой интеграцией ChatGPT в браузеры своих мобильных устройств

Samsung имеет довольно сложную стратегию взаимодействия со сторонними сервисами. Так, ранее в этом году слухи о том, что компания намерена отказаться от поиска Google по умолчанию в пользу Microsoft Bing с интегрированным ИИ-ботом, вызвали настоящую панику в Google. Хотя Samsung, похоже, отказалась от первоначальных планов, тем не менее она по-прежнему проявляет большой интерес к вариантам интеграции ИИ в свой браузер.

 Источник изображения: ilgmyzin/unsplash.com

Источник изображения: ilgmyzin/unsplash.com

Как сообщает портал Android Authority, после «разборки» APK-файла браузера Samsung Internet Browser v22.0.0.54, выяснилось, что компания, вероятно, активно экспериментирует с интеграцией в ПО чат-бота ChatGPT в том или ином виде. Впрочем, нет никаких гарантий, что соответствующие функции когда-либо станут общедоступными.

Судя по строкам кода, речь может идти об экспериментальной интеграции. Некоторые эксперты предполагают, что новая функция позволит делать запросы в ChatGPT, не переходя на сам сайт сервиса, с выбором настроек и версии ChatGPT. Также можно предположить, что пользователи смогут запрашивать у ChatGPT краткие резюме посещаемых веб-страниц.

 Источник изображения: Android Authority

Источник изображения: Android Authority

На данный момент любая функциональность, связанная с ChatGPT, в браузере Samsung Internet Browser отсутствует. Конечно, имеются сторонние плагины с возможностью подключения соответствующего бота, но они несравнимы с прямой интеграцией.

В самой Samsung новость пока не комментировали. Как известно, Samsung Internet Browser предустанавливается на все модели планшетов и смартфонов компании, поэтому новая функциональность может оказать серьёзное влияние на предпочтения пользователей, ценящих ChatGPT выше Google Bard, который активно распространяется по регионам планеты.

OpenAI попала под расследование FTC из-за подозрений в нарушениях конфиденциальности при обучении ChatGPT

Федеральная торговая комиссия (FTC) США запустила расследование в отношении компании OpenAI, являющейся разработчиком популярного ИИ-бота ChatGPT. По данным источника, регулятор направил в адрес разработчика 20-страничное письмо, в котором говорится о начале проверки.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Основанием для проверки стало подозрение в том, что большие языковые модели (LLM) OpenAI, являющиеся основой ИИ-алгоритмов, могли создаваться с использованием «нечестных или обманчивых» методов защиты конфиденциальности, нанося «репутационный ущерб» потребителям. В документе содержится 49 вопросов, многие из которых касаются конфиденциальной информации. Помимо прочего регулятор интересуется тем, какие данные компания использует для обучения ChatGPT, как эти данные получены и какие меры принимаются для того, чтобы чат-бот не получил доступ к конфиденциальной информации пользователей.

FTC также просит OpenAI предоставить подробные данные об ошибке в программном обеспечении, из-за которой произошла утечка историй разговоров пользователей с чат-ботом и платёжных реквизитов клиентов компании. В письме отмечается, что OpenAI должна приостановить все процедуры, связанные с уничтожением документов. В ходе расследования регулятор также рассмотрит вопрос касательно того, насколько денежная компенсация со стороны OpenAI будет отвечать общественным интересам. Официальные представители FTC и OpenAI отказались комментировать данный вопрос.

window-new
Soft
Hard
Тренды 🔥
YouTube полон нелегального контента, показало исследование 5 ч.
Apple одумалась: Liquid Glass стал менее прозрачным и более читаемым в новой бете iOS 26 5 ч.
Epic Games помирилась с Samsung — за блокировку сторонних магазинов на Android теперь ответит только Google 6 ч.
Календарь релизов — 7–13 июля: Tony Hawk’s Pro Skater 3 + 4, Mycopunk и Ground of Aces 7 ч.
Capcom побоялась проводить лекцию об оптимизации Monster Hunter Wilds на фоне «крайне отрицательных» обзоров в Steam 7 ч.
В TON Foundation признали, что заморозка TON на $100 000 не гарантирует «золотую визу» ОАЭ 8 ч.
Конкурент Netflix? Трамп запустил «устойчивый к цензуре» стриминговый сервис Truth+ 8 ч.
Уволенный сооснователь Unknown Worlds заявил, что Subnautica 2 готова к выходу в ранний доступ, но Krafton с этим не согласна 9 ч.
Apple привлекла ИИ, чтобы помочь незрячим «увидеть» улицы — SceneScout покажет путь голосом 10 ч.
«Игра, от которой невозможно отказаться»: журналисты показали 9 минут геймплея Mafia: The Old Country 10 ч.
CoreWeave всё-таки купила оператора ЦОД Core Scientific, но в девять раз дороже, чем когда-то планировала 5 ч.
Новая статья: Обзор смартфона HONOR 400: реаниматор 5 ч.
Бренд Trouver дебютировал в России с роботами-пылесосами P50 Ultra и P50 Pro Ultra 10 ч.
ChatGPT справился с управлением космическим кораблём, но пока только в симуляции 10 ч.
Характеристики Galaxy Z Fold 7 и других новых складных смартфонов Samsung раскрыты в преддверии презентации 11 ч.
Российская электроника страдает от заниженных цен в госзакупках — виноваты иностранные производители 12 ч.
CoolIT за полтора года в 25 раз увеличила производство СЖО для ИИ-серверов и ЦОД 14 ч.
На TSMC подали в суд за дискриминацию «ленивых» американских сотрудников, расизм и домогательства на заводе в США 14 ч.
Пошлины США и геополитическая напряжённость притормозили рост поставок ИИ-серверов в 2025 году 14 ч.
Маск обвалил акции Tesla на 7 %, заявив о создании политической партии 14 ч.