Опрос
|
реклама
Быстрый переход
Брокеры данных собирают огромные объёмы информации о каждом человеке, но иногда можно попросить её удалить
12.10.2024 [16:43],
Павел Котов
В интернете уже давно работают компании, называемые брокерами данных, которые собирают беспрецедентные объёмы личной информации о миллиардах людей по всему миру, но мало кто осознаёт истинный масштаб их деятельности. И не всякий знает, что в некоторых случаях можно запросить удаление этой информации. Сегодня тщательно собирается, упаковывается и продаётся с целью извлечения прибыли каждое действие человека в интернете: каждый клик, покупка и каждый «лайк». Агрегированная персональная информация в этих условиях оказываются ценным товаром, что доказывает мировая индустрия брокеров данных. И с развитием инструментов искусственного интеллекта возникает риск, что объёмы извлекаемых сведений ещё сильнее вырастут, а мир брокеров данных, и без того непрозрачный, станет ещё более агрессивным. Это усиливает опасения по поводу конфиденциальности данных. По словам 67 % американцев, они мало или вообще ничего не понимают, что компании делают с их персональными данными, показали результаты исследования, проведённого Pew Research в 2023 году — в 2019 году таких было 59 %. И большинство (73 %) американцев считает, что у них «мало или совсем нет контроля» над тем, что компании делают с их информацией. Люди не осознают, что даже их номер телефона может использоваться брокерами данных или недобросовестными лицами для раскрытия крайне конфиденциальной информации: номера социального страхования, домашнего адреса, электронной почты и даже данных о семье. Крупные игроки в этой отрасли продают информацию ответственно, а мелкие и неизвестные могут обходить правила, нарушать этические границы и использовать персональные данные граждан так, что это может причинить им вред. Среди крупнейших игроков, по версии профильного сервиса OneRep, значатся Experian, Equifax, TransUnion, LexisNexis, Epsilon (ранее Acxiom) и CoreLogic, а также службы поиска людей Spokeo и Intelius. Эти компании работают в нескольких отраслях, обрабатывая как общедоступную информацию, так и закрытые конфиденциальные данные. Они предлагают различные услуги: маркетинговую аналитику, оценку кредитоспособности и проверку биографических сведений — при этом у них сформированы процедуры запроса собранных о себе данных или запроса на их удаление. Впрочем, компания может по-разному отреагировать за запросы из разных стран и даже штатов США. Ниже приводятся типы информации, которую обычно собирают брокеры данных, по словам опрошенных CNBC экспертов по вопросам конфиденциальности.
Брокеры данных продолжают работать под незначительным контролем, поскольку их работа регламентируется не везде: есть Общий регламент по защите данных (GDPR) в ЕС и некоторые нормативные акты в двадцати американских штатах, но и там нет уверенности, что эти компании действуют надлежащим образом. Чтобы начать полноценную работу по защите конфиденциальности, обществу необходимо осознать, какие объёмы личной информации передаются ежедневно, говорят эксперты. Полностью скрыться современный человек уже не может, но в его силах выработать новые привычки и овладеть новыми средствами, которые ограничат раскрытие данных. Например, некоторым мобильным приложениям следует ограничить доступ к геопозиции, в отдельных случаях лучше отказываться от сохранения файлов cookie и воздерживаться от публикации личных данных в интернете. Поможет применение защищённых браузеров и блокировщиков трекеров. Американские потребители имеют возможность отказаться от передачи своей личной информации некоторым брокерам данных, а также запросить её удаление — в отдельных случаях такой запрос обрабатывается всего один рабочий день. Но эта процедура иногда оказывается намеренно усложнённой, указывают эксперты, а ранее удалённые персональные данные могут опять появиться в той же базе, но уже из других источников. Существуют также службы, преимущественно платные, которые берут на себя составление и отправку запросов на удаление данных у разных операторов. Тем же, кто решит действовать самостоятельно, рекомендуется выполнить поиск своей персональной информации через Google и связаться с администрациями сайтов, где эта информация может обнаружиться. Или произвести поиск на ресурсах самих брокеров данных — у них же может быть форма запроса на удаление. В некоторых случаях, вероятно, потребуется решать вопрос в судебном порядке. Перспективы отрасли брокеров данных включают в себя как положительные, так и отрицательные аспекты. С одной стороны, развитие ИИ способно значительно упростить работу этим компаниям. С другой, защитой от них могут стать блокчейн, технологии повышения конфиденциальности, а также развитие законодательной базы. Но пока соответствующие нормы не приняты, брокеры данных продолжат собирать максимально возможные объёмы информации — для них это источник дохода, и чем больше информации о каждом человеке собрано, тем она точнее, а значит, дороже. Meta✴ созналась, что все фото, снятые пользователями на умные очки Ray-Ban, она применит для обучения ИИ
03.10.2024 [11:54],
Павел Котов
Компания Meta✴ призналась, что любое снятое умными очками Ray-Ban изображение, которое пользователи отправляют помощнику с искусственным интеллектом, она может использовать для обучения новых систем ИИ. «В регионах, где доступен мультимодальный ИИ (в настоящий момент это США и Канада) изображения и видео, передаваемые Meta✴ AI, могут в соответствии с нашей политикой конфиденциальности использоваться для его улучшения», — заявил представитель компании Эмиль Васкес (Emil Vazquez) ресурсу TechCrunch. Ранее компания заявляла, что снимаемые на очки Ray-Ban Meta✴ фото и видео не используются компанией для обучения систем, пока пользователь сам не отправит их ИИ на анализ — в этот момент материалы попадают под другой набор политик. Другими словами, компания использует своё первое потребительское устройство с ИИ для создания большого набора данных, который можно направить на разработку ещё более мощных моделей ИИ. Единственный способ отказаться — просто не обращаться к мультимодальным системам Meta✴ AI. Владельцы умных очков Ray-Ban Meta✴ могут не осознавать, что сами предоставляют компании большие объёмы изображений — это могут быть интерьеры их домов, фото близких и личные документы — для обучения новых моделей ИИ. Представители Meta✴ утверждают, что эти сведения есть в пользовательском интерфейсе устройства, но в действительности руководство компании либо само не знало, либо не хотело раскрывать эти сведения. Ранее стало известно, что модели ИИ Llama обучаются на публичных материалах американских пользователей в Instagram✴ и Facebook✴, но теперь определение «общедоступных данных» компания расширила на всё, что пользователи умных очков отправляют ИИ на анализ. Накануне компания начала развёртывать новые функции ИИ для очков Ray-Ban Meta✴ — общение с устройством становится всё более естественным, и владельцы очков будут всё чаще отправлять ИИ свои данные, которые компания станет использовать для обучения новых систем. На мероприятии Meta✴ Connect 2024 она подробно рассказала об этих новых функциях, но умолчала о том, что будет делать с пользовательскими данными. В условиях обслуживания Meta✴ AI говорится: «Вы соглашаетесь, что Meta✴ будет анализировать эти изображения, включая черты лица, с помощью ИИ» — при этом компания недавно выплатила властям штата Техас $1,4 млрд, чтобы урегулировать судебное разбирательство, связанное с системой распознавания лиц. Примечательно, что некоторые связанные с обработкой изображений функции Meta✴ AI не работают в Техасе. Meta✴ также по умолчанию хранит расшифровки всех голосовых диалогов пользователей с умными очками — тоже для обучения ИИ. А вот от записи самого голоса можно отказаться: при первом входе в приложение для управления устройством пользователь выбирает, можно ли использовать записи голоса для этих целей. К слову, американские студенты уже модифицировали программную часть очков Ray-Ban Meta✴ — теперь они раскрывают имя, адрес и номер телефона любого, на кого смотрит пользователь. Россиянам стал доступен бот для жалоб на незаконную информацию в Telegram
23.09.2024 [23:44],
Владимир Фетисов
Бот для передачи информации о нарушениях правил мессенджера Telegram заработал в России с 23 сентября. О запуске бота объявил основатель сервиса Павел Дуров. Он также отметил, что специальная команда модераторов за последние несколько дней удалила «весь проблемный контент», обнаруженный в открытом поиске Telegram. Специальный бот был создан для того, чтобы пользователи мессенджера могли сообщать администрации о небезопасном и незаконном контенте. Некоторое время после запуска этого инструмента в чате бота с российскими пользователями появлялось сообщение о том, что сервис недоступен в регионе. Также Telegram обновил условия предоставления услуг и политику конфиденциальности 23 сентября, тем самым обеспечив их единообразие по всему миру. В соответствии с новой политикой, IP-адреса и номера телефонов пользователей сервиса, которые нарушают действующие правила платформы, могут быть раскрыты органам правопорядка в ответ на юридически обоснованные запросы. Павел Дуров также заявил, что поиск в Telegram мощнее по сравнению с аналогами в других сервисах обмена сообщениями, поскольку с его помощью можно находить публичные каналы и ботов. Этой функцией злоупотребляют продавцы нелегальных товаров, а также лица, распространяющие незаконную информацию. По его словам, новые правила сделают поиск более безопасным, поскольку проблемный контент больше недоступен. Meta✴ использовала почти все ваши публикации с 2007 года для обучения ИИ
13.09.2024 [07:22],
Дмитрий Федоров
Компания Meta✴, владеющая Facebook✴ и Instagram✴, подтвердила, что использует публичные посты пользователей, опубликованные с 2007 года, для обучения ИИ-моделей. Это заявление прозвучало во время правительственного расследования в Австралии. При этом миллиарды пользователей за пределами Европейского союза (ЕС) и Бразилии, сохраняющие публичность своих постов, не имеют возможности отказаться от участия в обучении ИИ. Во время расследования, проводимого австралийским правительством относительно внедрения ИИ, Мелинда Клейбо (Melinda Claybaugh), глобальный директор по вопросам конфиденциальности компании Meta✴, признала, что компания использует все публичные текстовые и фотоматериалы, опубликованные совершеннолетними пользователями Facebook✴ и Instagram✴ с 2007 года. Признание прозвучало после настойчивых вопросов сенатора от партии «Зелёных» Дэвида Шубриджа (David Shoebridge). При этом Meta✴ не предоставляет возможности удаления уже собранных данных, даже в случае, если пользователь изменит настройки приватности. Meta✴ в своих материалах по конфиденциальности и блогах упоминает об использовании публичных постов и комментариев для обучения моделей генеративного ИИ. Однако детали этого процесса остаются неясными. В июне 2023 года, отвечая на запрос The New York Times о сроках начала и масштабах сбора данных, Meta✴ не предоставила конкретного ответа, отметив лишь, что изменение настроек приватности предотвратит будущий сбор. Особенно тревожит факт использования данных пользователей, которые в 2007 году могли быть несовершеннолетними. Клейбо заявила, что Meta✴ не использует данные пользователей младше 18 лет, однако не смогла дать чёткого ответа на вопрос о том, как обрабатываются аккаунты взрослых, созданные ими в детском возрасте. Сенатор Тони Шелдон (Tony Sheldon) задал вопрос о сканировании публичных фотографий детей на аккаунтах взрослых пользователей. Клейбо подтвердила, что такие данные тоже используются. В отличие от пользователей из ЕС, имеющих право отказаться от участия в обучении ИИ благодаря местным законам о конфиденциальности, и пользователей из Бразилии, где недавно запретили Meta✴ использовать персональные данные для обучения ИИ, большинство из миллиардов пользователей Facebook✴ и Instagram✴ лишены такой возможности. Клейбо не смогла уточнить, будет ли предоставлена возможность отказа австралийским пользователям или кому-либо ещё в будущем, ссылаясь на неопределённость нынешнего регуляторного ландшафта. Отсутствие возможности отказа от использования данных вызывает критику со стороны правозащитников и политиков. Сенатор Шубридж отметил, что неспособность правительства Австралии принять адекватные законы о конфиденциальности позволяет таким компаниям, как Meta✴, продолжать монетизировать и эксплуатировать даже фотографии и видео детей на Facebook✴. Данное заявление указывает на глобальную проблему: законодательство не поспевает за темпами развития технологий ИИ и методами сбора данных. Telegram обновил справочный раздел, но модерации личной переписки не будет
06.09.2024 [12:31],
Павел Котов
Администрация Telegram внесла изменения в содержимое справочного раздела, дав невнимательным гражданам повод сделать вывод, что платформа теперь будет модерировать переписку пользователей. В действительности личные и групповые чаты мессенджера так и остались приватными, утверждает его администрация. Ранее на странице «Часто задаваемые вопросы» в разделе подачи жалоб на незаконные материалы отмечалось, что «все чаты Telegram и групповые чаты являются приватными для их участников. Мы не обрабатываем никакие связанные с ними запросы». Сейчас этот раздел гласит: «Все приложения Telegram имеют кнопки „Сообщить“, которые позволяют вам сообщать нашим модераторам о незаконных материалах — всего за несколько нажатий». Приводится также адрес электронной почты для обращения и краткие инструкции, чтобы ускорить реакцию администрации. Но это не значит, что платформа изменила свою политику и теперь собирается модерировать переписку пользователей. Фраза о приватном характере личных и групповых чатов переместилась в соседний раздел. В нём уточняется, что в отличие от личной и групповой переписки наборы стикеров, каналы и боты содержат информацию, доступную неограниченному кругу пользователей. Ранее глава Telegram Павел Дуров заявил, что администрации мессенджера приходится выдерживать баланс между безопасностью и конфиденциальностью пользователей. Copilot в Microsoft Edge научился обрабатывать PDF-файлы, и это может стать причиной утечки данных
14.08.2024 [21:10],
Сергей Сурабекянц
Microsoft стремится интегрировать максимальное количество ИИ-функций в свой веб-обозреватель. Новую порцию ИИ-улучшений получил и встроенный в Microsoft Edge инструмент для чтения документов PDF. ИИ-функция, добавленная в Copilot, сканирует документ, выделяя ключевые слова и фразы, а затем предоставляет пользователю дополнительную информацию. Обработка, вероятно, производится на серверах Microsoft, что может нарушить конфиденциальность. Новый инструмент доступен при нажатии кнопки, появившейся рядом с существующей кнопкой «Спросить Copilot» в интерфейсе PDF-ридера. Она запускает сканирование всего PDF-документа для генерации соответствующих ключевых слов и фраз. Затем пользователь может выбрать любое из них, чтобы открыть боковую панель Copilot в браузере и получить больше контекста или информации, связанной с этим ключевым словом. Содержимое PDF-файла, вероятно, обрабатывается и анализируется серверами Microsoft, что потенциально может привести к утечке конфиденциальной информации. Скорее всего, при обработке документов также будет производиться масштабный сбор данных для улучшения модели ИИ и изучения пользовательского опыта. Стоит дважды подумать, прежде чем использовать новую функцию для обработки документов с чувствительной информацией, например, налоговых форм или финансовых договоров. Весьма вероятно, что в ближайшее время Microsoft расширит область применения новой ИИ-функции, добавив в список обрабатываемых файлов документы Word, электронные таблицы Excel и презентации PowerPoint. Эта функция — лишь одна из нескольких возможностей на базе ИИ, которые были добавлены в Edge. Ранее обозреватель получил функцию интеллектуального поиска, которая обнаруживает связанные совпадения и слова, что упрощает поиск информации на странице. «Генератор тем» на базе ИИ преобразует текстовые подсказки в визуальные дизайны. ИИ даже научился автоматически присваивать названия группам вкладок для эффективного просмотра. Сейчас, если судить по предварительной сборке Canary, Microsoft работает над улучшением способности ИИ в Edge предлагать пользователю сайты для просмотра. Точная природа и функциональность этих нововведений пока не известна, но, учитывая стремление Microsoft к массированному внедрению ИИ везде, где только можно, рано или поздно они появятся. Американские власти обвинили TikTok в нарушении закона о конфиденциальности детей
03.08.2024 [10:34],
Павел Котов
Минюст США подал судебный иск, в котором обвинил администрацию службы коротких видео TikTok и владеющую ей компанию ByteDance в нарушении «Закона о защите конфиденциальности детей в интернете» (COPPA). Платформа, по версии ведомства, позволяет детям создавать учётные записи без ведома родителей; собирает и хранит персональные данные несовершеннолетних, в том числе их адреса электронной почты, номера телефонов и данные о местоположении; а также не выполняет просьбы родителей удалить информацию об их детях. Основанием для подачи иска стало соглашение между TikTok и Федеральной торговой комиссией (FTC) США — администрация платформы согласилась урегулировать обвинения в незаконном сборе персональных данных детей в возрасте до 13 лет. В рамках соглашения TikTok должна была принять конкретные меры для соблюдения COPPA, но, утверждает Минюст, она продолжает нарушать и закон, и постановление суда от 2019 года. В приложении есть «Детский режим» для пользователей до 13 лет, но администрация платформы по-прежнему «сознательно позволяет детям до 13 лет создавать учётные записи в стандартном режиме TikTok и собирает личную информацию этих детей без предварительного уведомления родителей или получения достоверного родительского согласия», говорится в иске. FTC начала проверку вероятных нарушений COPPA со стороны TikTok в начале этого года, а Минюст подал исковое заявление по представлению Федеральной торговой комиссии. «TikTok сознательно и неоднократно нарушал конфиденциальность детей, ставя под угрозу безопасность миллионов несовершеннолетних по всей стране», — отметила председатель FTC Лина Хан (Lina Khan). «Мы не согласны с этими обвинениями, многие из которых связаны с прошлыми событиями и практиками, которые фактически недостоверны или были исправлены. Мы гордимся нашими усилиями по защите детей и продолжим работу по обновлению и улучшению платформы. Для этого мы предлагаем отвечающие возрасту режимы со строгими мерами безопасности, активно удаляем заподозренных в возрастном несоответствии пользователей, и мы добровольно запустили такие функции как ограничение времени активности по умолчанию, „Семейное подключение“ (Family Pairing) и дополнительные меры защиты конфиденциальности для несовершеннолетних», — заявил представитель TikTok Майкл Хьюз (Michael Hughes). Но принятых администрацией платформы мер оказалось недостаточно, чтобы оградить детей до 13 лет от несанкционированного доступа к приложению. В частности, утверждается в иске, «по крайней мере до 2020 года», когда ребёнок пытался зарегистрировать учётную запись, но получал отказ после указания даты рождения, согласно которой он не достиг 13-летнего возраста, приложение TikTok не мешало ему повторить попытку с другой датой рождения, «даже несмотря на то, что к тому времени [TikTok] уже знал из указанной пользователем ранее даты рождения, что пользователь является ребёнком». Если же родитель обнаруживал учётную запись своего ребёнка, администрация платформы «не потрудилась создать для родителей простой процедуры отправки запроса на удаление» персональных данных ребёнка, гласит документ, а существующий процесс характеризуется как «запутанный». И даже когда родители отправляли запрос, в TikTok его «зачастую не выполняли». Минюст требует от суда наложить на ответчика административные санкции и издать постановление для предотвращения нарушений COPPA в будущем. Нейросеть Gemini уличили в сканировании PDF-файлов пользователей Google «Диска»
15.07.2024 [00:44],
Владимир Фетисов
Стремительное развитие нейросетей давно вызывает опасения экспертов по поводу обеспечения конфиденциальности при взаимодействии с такими алгоритмами. На этой неделе появилось очередное подтверждение того, что эти опасение не напрасны. Пользователь соцсети X Кевин Бэнкстер (Kevin Bankster) обратил внимание на то, что нейросеть Gemini компании Google автоматически сканирует хранящиеся в Google Диске PDF-файлы, не получив на это явного согласия пользователя. «Только что открыл свою налоговую декларацию в Google Документах и Gemini без разрешения резюмировал её. Итак… Gemini автоматически сканирует даже личные документы, которые я открывают в Google Документах? <…> Я не просил об этом. Теперь мне нужно найти новые настройки, о которых мне никогда не сообщалось, чтобы отключить это», — написал Бэнкстер в своём аккаунте в сети X. Что именно стало причиной такого поведения Gemini пока не ясно. По мнению самого алгоритма, настройки конфиденциальности, используемые для информирования Gemini, должны быть открыто доступны, но это не так. Это может означать, что, либо алгоритм выдаёт ложную информацию, либо некоторые внутренние системы Google явно функционируют некорректно. В любом случае, это выглядит не очень хорошо, даже если предположить, что нейросеть не использует личные данные пользователей для обучения. Что касается Бэнкстера, то спустя некоторое время он написал, что смог найти в настройках опцию, активация которой позволяет Gemini сканировать документы в Gmail, Google Документах и Google Диске. При этом он отметил, что опция была отключена, но алгоритм по каким-то причинам всё равно просканировал документ и создал обобщённый текст на его основе. Бэнкстер считает, что проблема может быть связана с тем, что он зарегистрировался в Google Workspace Labs в 2023 году, из-за чего настройки Gemini могли примениться некорректно. Игроки War Thunder снова опубликовали секретные военные документы — теперь связанные с российскими танками
14.07.2024 [14:40],
Владимир Фетисов
Несмотря на все усилия разработчиков, члены сообщества War Thunder продолжают копаться в секретных документах и время от времени публиковать их с целью доказать свою правоту. На этот раз в Сети появилась документация, касающаяся российских танков T-90M, T-80БBM и T-90C. Все три машины стоят на вооружении армии РФ, а их цифровые копии присутствуют в War Thunder. Согласно имеющимся данным, в начале этой недели на форуме War Thunder появились руководства по эксплуатации упомянутых танков. Эти документы являются секретными и не предназначены для публичного распространения, несмотря на то, что в них содержится лишь поверхностная информация о боевых машинах. Комьюнити-менеджеры форума War Thunder удалили все сообщения, в которых содержались эти документы, хотя сами файлы продолжают циркулировать в глобальной сети. Это лишь одна из трёх подобных утечек за последнюю неделю, хотя и не все они напрямую связаны с War Thunder. Сначала на форуме игры появились документы, касающиеся британских танков Challenger. Позднее стало известно, что эта информация находится в открытом доступе в Национальном архиве Великобритании. За несколько дней до этого пользователи Telegram из Китая опубликовали секретные документы, касающиеся истребителей F-15 и F-35. После этого часть документов появилась на официальных форумах War Thunder. Сообщество War Thunder привлекает много внимания, поскольку разработчики игры уделяют большое внимание реализму и точному изображению реально существующего оружия, танков, кораблей и самолётов. На форумах игры более десяти раз всплывали секретные военные документы, что вынудило разработчиков усилить модерацию в игре и официальных форумах. С тех пор число подобных случаев сократилось, а нарушения быстро пресекаются, но полностью решить проблему так и не удалось. Zotac случайно опубликовала личные данные клиентов
07.07.2024 [15:27],
Владимир Фетисов
Zotac случайно «слила» в Сеть личные данные множества своих клиентов из-за ошибки в управлении файлами системы возврата некачественных или неисправных изделий производителю для ремонта или обмена (RMA). Компания загрузила данные на веб-сервер Google в результате чего они стали общедоступными. Одним из первых на проблему обратил внимание автор YouTube-канала GamersNexus. Он сообщил, что после появления файлов RMA на веб-сервере Google любой желающий мог получить к ним доступ, сделав запрос «Zotac RMA» или похожий на него. В настоящее время файлы RMA не отображаются в поиске Google, но в распоряжении блогера осталось несколько изображений, показывающих, что в общий доступ попала разная конфиденциальная информация, включая счета бизнес-партнёров Zotac, а также специальные запросы RMA и другие личные данные. Один из подписчиков GamersNexus сообщил, что смог найти в результатах поиска Google свой файл RMA. В нём содержалась информация о клиенте, суммы счетов и многое другое. В настоящее время Zotac пытается решить проблему, сотрудничая в этом вопросе со своими партнёрами. Вместе с этим компания просит клиентов отправлять личные документы по электронной почте на определённый адрес. YouTube будет удалять синтетический контент с имитацией лиц и голосов пользователей по их запросу
02.07.2024 [08:58],
Дмитрий Федоров
YouTube, вслед за Meta✴, внедрил политику по борьбе с контентом, созданным с помощью искусственного интеллекта (ИИ). Отныне пользователи платформы могут требовать удаления материалов, в которых ИИ или другие синтетические технологии имитируют их лицо или голос. Эта мера стала частью масштабной стратегии компании по ответственному применению ИИ, однако процесс удаления подобных материалов не будет автоматическим. 1 июня 2023 года видеогигант без лишнего шума ввёл кардинальные изменения в свою политику. Теперь у пользователей появился мощный инструмент защиты своей конфиденциальности — возможность запросить удаление контента, в котором ИИ или иные синтетические технологии имитируют их лицо или голос. Это не просто косметическое обновление политики компании, а серьёзное расширение инициативы по ответственному использованию ИИ, анонсированной ещё в ноябре 2022 года. Интересно отметить, что YouTube предпочитает рассматривать подобные запросы пользователей не как жалобы на дезинформацию (например, в случае с дипфейками), а как нарушение их конфиденциальности. Согласно обновлённой справочной документации, право инициировать удаление контента получает, как правило, только сам пострадавший. Но YouTube — не бездушная машина, поэтому предусмотрены исключения для несовершеннолетних, людей без доступа к компьютеру, умерших и ряда других особых случаев. Однако не стоит думать, что достаточно лишь пожаловаться на контент, и он моментально исчезнет. YouTube, подобно мудрому судье, оставляет за собой право взвесить все за и против. Компания рассматривает целый ряд факторов: является ли контент синтетическим или созданным с помощью ИИ, идентифицирует ли он человека и может ли он считаться пародией, сатирой или чем-то ещё, имеющим ценность и отвечающим общественным интересам. Компания также будет оценивать, показывает ли сгенерированный ИИ материал известную личность в компрометирующих ситуациях, например, занимающейся преступной деятельностью, проявляющей насилие или неправомерно поддерживающей какого-либо политического кандидата. Последний пункт особенно актуален в преддверии ноябрьских выборов в США. Каждый случай является уникальным пазлом, который YouTube предстоит собрать, прежде чем вынести окончательный вердикт. YouTube даёт пользователям, загрузившим спорный контент, 48 часов на его удаление. Если в течение этого времени пользователь сам удаляет материал, жалоба закрывается. В противном случае YouTube начинает собственную проверку. Компания также предупреждает пользователей, что удаление означает полное удаление видео с платформы и, в случае необходимости, удаление имени и личной информации человека из названия, описания и тегов видео. Пользователи также могут размывать лица людей в своих видео, но они не могут просто сделать видео приватным, чтобы выполнить требование, так как видео может быть возвращено в публичный доступ в любое время. Не стоит, однако, думать, что YouTube превратился в ярого противника ИИ. Напротив, компания сама активно экспериментирует с генеративным ИИ, разрабатывая системы для суммирования комментариев (представьте, что тысячи мнений конденсируются в несколько ёмких фраз) и диалоговые системы для взаимодействия с видеоконтентом (своего рода цифровой собеседник, готовый обсудить любой ролик). Однако YouTube подчёркивает, что простая маркировка контента как созданного с помощью ИИ не защищает его от удаления, и он всё равно должен соответствовать общим правилам сообщества. Важно отметить, что YouTube не будет автоматически наказывать создателей контента за нарушения конфиденциальности. На форуме YouTube Community представитель компании пояснил, что жалобы на нарушение конфиденциальности рассматриваются отдельно от нарушений правил сообщества и не приводят к автоматическим ограничениям для канала, нарушившего правила. Другими словами, Руководство по конфиденциальности YouTube отличается от Правил сообщества, и некоторый контент может быть удалён с YouTube в результате запроса о защите конфиденциальности, даже если он не нарушает Правила сообщества. Хотя компания не будет применять штрафные санкции, такие как ограничение на загрузку новых видео, после удаления спорного видео, YouTube оставляет за собой право принимать меры против аккаунтов с повторяющимися нарушениями. Apple пообещала, что её ИИ обеспечит «прозрачную и проверяемую защиту любых пользовательских данных»
11.06.2024 [18:33],
Сергей Сурабекянц
Apple заверила клиентов, что их данные, переданные на облако через систему искусственного интеллекта Apple Intelligence, «никогда не сохраняются и не становятся доступными для Apple», а открытый серверный код позволяет экспертам «проверить это обещание конфиденциальности». Компания утверждает, что ИИ-система Apple Intelligence, которую она интегрирует в свои продукты, будет использовать «частные облачные вычисления на серверах, специально созданных на базе процессоров Apple». Поскольку большинство крупных языковых моделей запускаются на удалённых облачных серверных фермах, пользователи неохотно делятся персональными данными с компаниями, занимающимися ИИ. В своём сегодняшнем выступлении на WWDC компания Apple подчеркнула, что новая система Apple Intelligence, которую она интегрирует в свои продукты, будет использовать новые «частные облачные вычисления», чтобы обеспечить прозрачную и проверяемую защиту любых данных, обрабатываемых на её облачных серверах. «Вам не придётся передавать все детали своей жизни для хранения и анализа в чьём-то облаке ИИ», — заявил старший вице-президент Apple по разработке программного обеспечения Крейг Федериги (Craig Federighi). Он сообщил, что многие модели генеративного ИИ Apple могут полностью локально работать на устройствах на базе чипов серии A17+ или M, что исключает риск отправки личных данных на удалённый сервер. По словам Федериги, если для выполнения запроса пользователя потребуется более крупная облачная модель, она «будет работать на серверах, которые мы создали специально с использованием процессоров Apple», что позволяет использовать инструменты безопасности, встроенные в язык программирования Swift. Федериги утверждает, что система Apple Intelligence «отправляет на серверы только те данные, которые необходимы для выполнения вашей задачи», а не предоставляет полный доступ ко всей контекстной информации на устройстве. Федериги подчеркнул, что даже этот минимизированный набор данных не будет сохраняться для будущего доступа или использоваться для дальнейшего обучения серверных моделей Apple. Не менее важно, что серверный код, используемый Apple, будет открытым и независимые эксперты смогут проверить его на конфиденциальность пользовательских данных. Вся система защищена сквозным шифрованием, так что устройства Apple «откажутся взаимодействовать с сервером, если их программное обеспечение не будет публично зарегистрировано для проверки». Хотя в программной речи Федериги приводится немного технических подробностей, акцент на конфиденциальности показывает, что Apple, по крайней мере на словах, уделяет приоритетное внимание проблемам безопасности в сфере генеративного ИИ. Свою политику в отношении персональных данных Apple называет «совершенно новым стандартом конфиденциальности и искусственного интеллекта». Осталось дождаться заключения независимых экспертов по безопасности. iOS 18 позволит защищать приложения с помощью Face ID
09.06.2024 [16:24],
Владимир Фетисов
По сообщениям сетевых источников, в iOS 18, запуск которой должен состояться позднее в этом году, появится поддержка блокировки отдельных предустановленных приложений с помощью Face ID. За счёт этого Apple повысит уровень конфиденциальности и безопасности на своих смартфонах. В сообщении сказано, что функция блокировки приложений с помощью Face ID будет поддерживаться в разных приложениях, таких как «Почта», «Сообщения», «Заметки», «Телефон», «Фотографии», «Настройки», Safari и др. Чтобы снять блокировку с одно из заблокированных ранее приложений пользователю потребуется пройти аутентификацию с помощью Face ID. Также не исключено, что будет реализована возможность блокировки отдельных приложений с помощью Touch ID или PIN-кода. Будет ли эта функция работать с приложениями сторонних разработчиков, на данный момент неизвестно. В настоящее время пользователи iPhone уже могут блокировать доступ к некоторому контенту с помощью Face ID, Touch ID или пароля. К примеру, таким образом можно закрыть доступ к заметкам в приложении «Заметки» или фотографиям в папках «Недавно удаленные» и «Скрытые» в приложении «Фотографии». Новая функция предоставит больше возможностей в плане обеспечения конфиденциальности, поскольку пользователи смогут блокировать доступ к приложениям, даже если сам смартфон разблокирован. Apple анонсирует iOS 18 в рамках своего выступления на выставке WWDC уже завтра. Вероятно, первая бета-версия программной платформы станет доступна разработчикам вскоре после анонса. Стабильная версия ОС начнёт распространяться осенью, когда компания выпустит новые iPhone. Adobe разъяснила, что не собирается посягать на пользовательский контент и обучать на нём ИИ
08.06.2024 [16:09],
Павел Котов
На этой неделе Adobe вызвала недовольство клиентов, навязав им обновлённые условия обслуживания. Документ принуждает пользователей согласиться на предоставление компании доступа к своему контенту в облачном хранилище. Adobe отреагировала на недовольство общественности, заверив, что изменения незначительны, и присваивать материалы пользователей она не собирается. Всплывающее окно с новыми условиями обслуживания начало демонстрироваться пользователям на этой неделе, и просто закрыть его невозможно. Прежде чем начать работу с Photoshop и другими приложениями, необходимо согласиться с условиями — без этого нельзя даже удалить программу. Формулировки документа обеспокоили клиентов Adobe, многие из которых работают с софтом компании профессионально, редактируя контент, принадлежащий иным лицам, а иногда и защищённый соглашениями о неразглашении. Adobe пояснила нововведение в публикации корпоративного блога. В разделе «Доступ к Вашему контенту» были изменены несколько слов: компания отметила, что «может» получить доступ к пользовательскому контенту с помощью «автоматизированных или ручных методов». Соответствующая формулировка, как оказалось, действует уже несколько месяцев, и значительная её часть не изменилась — компания, как и прежде, не собирается обучать на пользовательском контенте свою модель генеративного искусственного интеллекта Firefly. Формулировка о доступе к контенту понадобилась в первую очередь потому, что с облаком должны взаимодействовать некоторые функции графического редактора, в том числе Neural Filters, Liquid Mode и Remove Background. Кроме того, созданный пользователем контент, который хранится в облачных ресурсах, может подвергнуться проверке на предмет незаконных материалов. Тем же, кто беспокоится за свою конфиденциальность, рекомендуется отказаться от передачи материалов из облака для программ исследования и разработки Adobe. Соответствующая опция выключается в настройках учётной записи. Google регулярно нарушает приватность пользователей и в компании об этом знают
04.06.2024 [21:30],
Анжелла Марина
Из утекшего внутреннего отчёта Google стало известно, что компания в течение нескольких лет допускала нарушения конфиденциальности пользователей и утечку их личных данных — некоторые из эпизодов можно считать вопиющими. Google случайно собрала голосовые данные детей, раскрыла информацию о поездках и домашних адресах пользователей, а YouTube рекомендовал видео на основе контента, который пользователи давно удалили из истории просмотров. Как сообщает ресурс 404 Media, каждый из инцидентов мог затронуть лишь относительно небольшое количество людей либо был быстро устранен. Согласно внутреннему отчету Google, утечка конфиденциальных данных пользователей происходила в компании на протяжении многих лет. В базе данных, охватывающей период с 2013 по 2018 год, зафиксированы тысячи инцидентов, связанных с проблемами конфиденциальности и безопасности. Один из наиболее серьёзных случаев произошёл в 2016 году, когда выяснилось, что система Google Street View распознавала и сохраняла номера автомобилей в виде фотографий. Это произошло случайно из-за ошибки в работе алгоритма распознавания текста. В результате в базе данных Google оказалась информация о геолокации и номерах многих автомобилей. Эти данные впоследствии были удалены. Другой инцидент касался обнародованных личных данных более 1 млн пользователей приобретенного Google сервиса Socratic. В открытом доступе оказались email-адреса, данные геолокации и IP-адреса, в том числе детей. Информация была доступна более года и могла быть собрана злоумышленниками. Отдельно отмечен случай, когда голосовой помощник Google около часа записывал все аудиоданные, включая голоса детей. Было собрано порядка 1000 фрагментов с детской речью. Эти данные впоследствии также удалили. Зафиксированы и другие крупные инциденты, например, уязвимость в сервисе по поиску попутчиков Waze Carpool привела к раскрытию личной информации о поездках и домашних адресах пользователей. Также имел место несанкционированный доступ сотрудника Google к закрытым видео Nintendo в YouTube-аккаунте с последующей утечкой данных. Помимо этого, в отчёт попали инциденты и меньшего масштаба, например, ошибочная рассылка писем с персональными данными и открытый на какое-то время доступ к закрытым видео на YouTube. Хотя во многих случаях проблемы оперативно устранялись, общий масштаб инцидентов, связанных с пользовательскими данными, впечатляет. Это показывает, насколько сложно крупнейшим IT-компаниям обеспечивать конфиденциальность огромных массивов личной информации пользователей. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |