реклама
Теги → дезинформация

ЕС призвала технологические компании маркировать созданный ИИ контент — многие согласны, но не Twitter

Европейский Союз хочет, чтобы технологические компании предупреждали пользователей о контенте, созданном ИИ, который может содержать дезинформацию. «Технологии ИИ могут принести пользу, но имеются и «тёмные стороны» с новыми рисками и потенциальными негативными последствиями для общества, — говорит вице-президент Европейской комиссии Вера Юрова (Vera Jourova). — Новые технологии ставят новые задачи в борьбе с дезинформацией».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Закон о цифровых услугах ЕС, который устанавливает правила модерации, пока не распространяется на контент, созданный ИИ. ЕС спешит наверстать упущенное и установить правила для использования генеративного ИИ. Закон об ИИ будет вынесен на ключевое голосование на пленарном заседании Европейского парламента на следующей неделе. Даже если институты ЕС согласятся с окончательным вариантом к концу года, компаниям, вероятно, не нужно будет соблюдать его до 2026 года.

Уже сейчас компании, которые приняли добровольный свод правил ЕС по борьбе с дезинформацией, в том числе TikTok, Microsoft и Meta, должны «чётко маркировать» любые сервисы, способные распространять дезинформацию, созданную ИИ. Эти компании, которые интегрируют генеративный ИИ в свои сервисы, такие как Bing для Microsoft, Bard для Google, также должны предусмотреть необходимые меры безопасности, чтобы эти сервисы не могли использоваться злоумышленниками для создания дезинформации.

В общей сложности Вера Юрова встретилась с более чем 40 компаниями, подписавшими кодекс этики в сфере искусственного интеллекта. Однако Twitter отказалась подписывать документ. «Мы считаем, что это ошибка Twitter. Компания выбрала трудный путь — конфронтацию, — заявила представитель Европейской комиссии. — Отказавшись от участия, компания привлекла много внимания, и её действия и соблюдение законодательства ЕС будут тщательно и срочно проверены».

Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) обсуждает кодекс с партнёрами по G7, Индией и Индонезией, чтобы убедить компании добавлять дополнительные меры безопасности по мере развёртывания технологий генеративного ИИ. Комиссар по внутреннему рынку Тьерри Бретон (Thierry Breton) объявил о «Пакте об ИИ», который будет действовать в период между согласованием закона об ИИ и его вступлением в силу.

Google представила детектор сгенерированных ИИ изображений — в поиске и других приложениях

Компания Google делает новые шаги на пути борьбы с дезинформацией — она намерена автоматически выявлять сгенерированные ИИ изображения. На мероприятии I/O она представила новые функции, которые добавятся в её поиск. Считается, что такая функциональность поможет людям лучше понимать «контекст» изображений в поисковой выдаче. Кроме того, пользователи будут получать больше информации об изображении в специальной вкладке. Также появится и маркировка «Сгенерировано ИИ».

 Сгенерировано Google. Источник изображения: Google

Сгенерировано Google. Источник изображения: Google

В компании заявляют, что новые функции помогут людям быстрее оценивать достоверность изображения — реально ли оно или создано ИИ. Впрочем, сами эти инструменты вряд ли помогут устранить проблему дезинформации полностью, поскольку значительная часть изображений будет демонстрироваться вообще вне экосистемы Google, на площадках, где авторы могут публиковать буквально что угодно. Тем не менее, новая функциональность, которая появится в «ближайшие месяцы», обеспечит в поиске больше контекста, связанного с теми или иными «снимками» — достаточно будет открыть вкладку «Об этом изображении» (About this image).

В частности, в число данных будет включена информация о том, когда изображения были впервые индексированы Google, где изображение, вероятно, впервые появилось онлайн и где ещё оно публиковалось. В частности, такой поиск может привести на сайты, занимающиеся проверкой фактов, которые позволят пользователям больше узнать об изображении, чья достоверность поставлена под вопрос. В Google отметили, что 62 % опрошенных людей уверены, что встречаются с дезинформацией ежедневно или еженедельно, в компании надеются решать эту проблему с помощью вкладки «Об этом изображении».

Хотя Google изо всех сил старается представить технологию как можно раньше, до того, как мир заполонят сгенерированные ИИ изображения, недостоверность которых на первый взгляд неочевидна, в сети уже появилось множество фейковых фото, например — Папы Франциска в пуховике или дружески общающихся Трампа и Байдена. Такие технологии уже сегодня могут нанести серьёзный ущерб обществу.

Для того, чтобы вызвать информацию об изображении, пользователь будет должен нажать на трёхточечное меню в результатах выдачи «Изображения» в поисковике Google, можно будет искать по изображению или скриншоту в Google Lens или просто сделать свайп вверх на странице с заинтересовавшим пользователя изображением. Позже в этом году доступ к информации можно будет получить, вызвав окно правой кнопкой мыши на компьютере или долгим нажатием на изображение в смартфоне (в мобильной или настольной версии Chrome). Впрочем, сначала функция будет доступна только в США и только на английском.

 ATIGif.gif

Тем временем сгенерированные инструментами самой Google изображения получат специальную маркировку в исходном файле. Создатели изображений и издатели также смогут добровольно добавлять подобную маркировку на сгенерированные ИИ изображения. После этого в поиске Google будет появляться соответствующая метка. В Google заявляют, что некоторые платформы уже готовы к сотрудничеству в этой сфере — включая Midjourney, Shutterstock и др.

Google представила и другие возможности. Например, речь идёт о скором появлении секции в поиске раздела с некоммерческим контентом, опубликованным реальными людьми.

Чат-боты Google и Microsoft начали ссылаться друг на друга, плодя фейки

Если сейчас спросить чат-бот Microsoft Bing, был ли закрыт чат-бот Google Bard, он ответит «нет», хотя ещё пару часов назад ответ был противоположным. Microsoft утверждал о закрытии конкурента, ссылаясь в качестве доказательства на новостную статью о твите, в котором рассказывается о том, как пользователь спросил Bard, когда он будет закрыт, и Bard ответил, что уже закрыт, ссылаясь на комментарий с Hacker News, в котором кто-то пошутил, что это произошло, а кто-то другой использовал ChatGPT для написания фейковой новости об этом событии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

То, что чат-бот Microsoft Bing теперь исправил свою ошибку можно интерпретировать по-разному: или как демонстрацию возможности быстрой корректировки генеративного ИИ, или что системы на базе ИИ настолько бесконечно изменчивы, что становится привычным получать сообщения об их очередных ошибках.

Описанная ситуация — ранний признак масштабных мистификаций и дезинформаций, исходящих от искусственного интеллекта, который не может адекватно оценивать надёжные источники новостей, неправильно воспринимает истории о себе и ошибочно информирует пользователя о собственных возможностях. В данном случае всё началось из-за одного шутливого комментария на Hacker News. Трудно представить последствия в случае продуманной и преднамеренной попытки вывести чат-боты из строя.

Это смехотворная ситуация, но с потенциально серьёзными последствиями. Учитывая неспособность языковых моделей ИИ надёжно отличать факты от вымысла, их широкое применение грозит оставить за собой шлейф дезинформации и недоверия, информационные провокации, которые невозможно полностью подтвердить или авторитетно опровергнуть. Всё потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.

Эти компании могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, утверждая, что это просто «эксперимент», а не полноценная поисковая система, но уже описаны множественные случаи распространения дезинформации чат-ботами на базе ИИ. А теперь они ещё и начали ссылаться на ошибки друг друга…

window-new
Soft
Hard
Тренды 🔥
Разработчики Path of Exile 2 раскрыли, чего ждать от раннего доступа — геймплей, подробности и предзаказ в российском Steam 18 мин.
Приключение Hela про храброго мышонка в открытом мире получит кооператив на четверых — геймплейный трейлер новой игры от экс-разработчиков Unravel 2 ч.
OpenAI случайно удалила потенциальные улики по иску об авторских правах 3 ч.
Скрытые возможности Microsoft Bing Wallpaper напугали пользователей 4 ч.
В WhatsApp появилась расшифровка голосовых сообщений — она бесплатна и поддерживает русский язык 5 ч.
Новая игра создателей The Invincible отправит в сердце ада выживать и спасать жизни — первый трейлер и подробности Dante’s Ring 5 ч.
Центр ФСБ по компьютерным инцидентам разорвал договор с Positive Technologies 7 ч.
Android упростит смену смартфона — авторизовываться в приложениях вручную больше не придётся 7 ч.
OpenAI обдумывает создание собственного интернет-браузера и поисковых систем для противостояния Google 8 ч.
Apple готовит более разговорчивую Siri — она выйдет с iOS 19 9 ч.
Magssory Fold 3 в 1 — компактная и функциональная беспроводная зарядная станция для Apple, Samsung и не только 26 мин.
Nokia подписала пятилетнее соглашение о поддержке ЦОД Microsoft Azure с миграцией с 100GbE на 400GbE 26 мин.
Давно упавший на Землю кусочек Марса пролил свет на историю воды на Красной планете 47 мин.
TeamGroup представила SSD T-Force GA Pro на чипе InnoGrit — PCIe 5.0, до 2 Тбайт и до 10 000 Мбайт/с 54 мин.
Провалился крупнейший проект по производству электромобильных батарей в Европе — Northvolt объявила о банкротстве 2 ч.
«Уэбб» открыл в ранней Вселенной три огромные галактики — учёные не понимают, почему они так быстро сформировались 2 ч.
Смартфоны Poco X6 Pro 5G, M6 Pro и C75 предлагают современный дизайн и продвинутые характеристики 3 ч.
В России стартовали продажи полностью беспроводных наушников Tecno True 1 Air, Buds 4 и Buds 4 Air 3 ч.
Одна из структур Минпромторга закупит ИИ-серверы на 665 млн рублей 4 ч.
Kioxia подала заявку на IPO — третьего крупнейшего производителя флеш-памяти оценили всего в $4,85 млрд 4 ч.