Сегодня 24 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → распознавание лиц

IBM клялась не разрабатывать системы распознавания лиц, но поступилась принципами за $70 млн

В 2020 году IBM на волне подъёма движения Black Lives Matter объявила об отказе продавать свою технологию распознавания лиц. Но вопреки своим собственным заявлениям компания заключила с британским правительством контракт на поставку такой системы, оцениваемый в $69,8 млн.

 Источник изображения: Carson Masterson / unsplash.com

Источник изображения: Carson Masterson / unsplash.com

В июне 2020 года глава IBM Арвинд Кришна (Arvind Krishna) направил в американский Конгресс письмо, в котором, в частности, отметил: «IBM твердо выступает против и не станет одобрять использование каких-либо технологий, в том числе технологий распознавания лиц, предлагаемых другими поставщиками, для массовой слежки, составления профилей на основе расовой принадлежности, нарушения основных прав и свобод человека или любых целей, не соответствующих нашим ценностям и „Принципам доверия и прозрачности”». Впоследствии компания пошла дальше и призвала к введению в США норм экспортного контроля, которые не позволили бы применять системы распознавания лиц «для подавления инакомыслия, ущемления прав меньшинств или стирания основных запросов на конфиденциальность» даже за рубежом.

Тем не менее, в августе 2023 года IBM заключила с британским правительством контракт на сумму £54,7 млн ($69,8 млн) на разработку национальной биометрической платформы с функцией распознавания лиц, которой смогут пользоваться правоохранительные органы и иммиграционная служба, узнали журналисты американского ресурса The Verge и британской организации журналистских расследований Liberty Investigates. На начальных этапах Платформа сопоставления биометрии МВД (Home Office Biometrics Matcher Platform) Великобритании предусматривает функцию сопоставления отпечатков пальцев, а на более поздних уже предусматривает внедрение системы распознавания лиц для иммиграционной службы — в документах она описывается как «средство стратегического сопоставления лиц для правоохранительных органов». На финальных стадиях проекта речь идёт о функции «сопоставления лиц для использования правоохранительными органами».

Иными словами, речь идёт о сопоставлении фотографий людей с изображениями из базы данных — это называется системой сопоставления типа «один ко многим». В сентября 2020 года IBM напрямую указывала, что системы сопоставления «один ко многим» являются «типом технологии распознавания лиц, который, скорее всего, будет использоваться для массовой слежки, создания профилей на основе расовой принадлежности и прочих нарушений прав человека».

 Источник изображения: Tumisu / pixabay.com

Источник изображения: Tumisu / pixabay.com

В IBM противоречия своих действий собственным заявлениям, кажется, не усматривают. Представитель компании Имтиаз Муфти (Imtiaz Mufti), в частности, заявил: «В соответствии с нашими обязательствами от 2020 года IBM более не предлагает [систем] распознавания лиц общего назначения, не поддерживает использования [систем] распознавания лиц для массового наблюдения, создания профилей на основе расовой принадлежности или прочих нарушений прав человека. <..> Платформа сопоставления биометрии МВД и контракт на связанные с ней услуги не используются для массового наблюдения. Она помогает полиции и иммиграционным службам идентифицировать подозреваемых по базе данных отпечатков и по данным фотографий. Она не способна производить захват видео, который обычно необходим для поддержки снятия биометрии у „лиц в толпе”».

Правозащитники раскритиковали позицию IBM, подчеркнув, что системы распознавания лиц типа «один ко многим» несовместимы с законами о правах человека, и компании следует в соответствии со своими заявлениями прекратить их продажи. Применение полицией подобных систем связывают с неправомерными арестами в США, а в Великобритании его правомерность оспаривалась в суде, напомнили The Verge и Liberty Investigates. В августе 2020 года Апелляционный суд Великобритании постановил, что применение полицией Южного Уэльса системы распознавания лиц нарушает право на неприкосновенность частной жизни и законы о равенстве. После вынесения этого решения полиция приостановила использование этой системы, но впоследствии к ней вернулась.

Моратории на продажи систем распознавания лиц полицейским управлениям США вслед за IBM ввели Amazon и Microsoft. В июне 2020 года был введён однолетний мораторий на продажу полиции системы Amazon Rekognition с намерением впоследствии продлить его на «неопределённый срок» — пресс-секретарь Amazon подтвердила, что он всё ещё действует. Тогда же, в июне 2020 года, Microsoft заявила, что также не станет продавать ПО для распознавания лиц полицейским управлениям США до тех пор, пока не выйдет федеральный закон, регулирующий использование этой технологии. В ответ на запрос The Verge и Liberty Investigates представитель Microsoft сослалась на информацию с сайта компании, где явно указано, что применение сервиса Azure AI Face «полицией штата или муниципальной полицией в США или для них запрещено политикой Microsoft». МВД Великобритании на запрос не ответило.

В Китае подготовили правила использования технологии идентификации лиц

Управление киберпространства Китая (CAC) выпустило проект правил, регламентирующих надзор за управлением безопасностью технологии лицевой идентификации — её чрезмерное распространение вызывало опасения по поводу конфиденциальности граждан.

 Источник изображения: Tumisu / pixabay.com

Источник изображения: Tumisu / pixabay.com

В ведомстве заявили, что технология распознавания лиц может применяться только при наличии конкретной цели и достаточной необходимости, а также при соблюдении строгих защитных мер. Её использование требует личного согласия. В случаях, когда небиометрические решения идентификации граждан оказываются столь же эффективными, что и технология лицевой идентификации, предпочтение должно отдаваться первым.

Технологии биометрической идентификации, и в первую очередь распознавания лиц, широко применяются в Китае. В 2020 году местные СМИ сообщили, что система распознавания лиц появилась на диспенсерах рулонов туалетной бумаги в общественных уборных, что вызвало негативную реакцию общественности и регулирующих органов. С тех пор местные органы власти выносили запреты на чрезмерное использование этих систем и даже налагали штрафы за злоупотребления.

Новый проект правил запрещает устанавливать устройства захвата изображений и идентификации личности в гостиничных номерах, общественных ванных комнатах, в раздевалках, уборных и других местах, где возникает риск для конфиденциальности граждан. Эти системы следует устанавливать только в целях общественной безопасности и сопровождать их соответствующими предупредительными знаками.

Основатели разработчика системы распознавания лиц NtechLab покинули компанию из-за бизнеса в России

Основатели компании NtechLab Артём Кухаренко и Александр Кабаков были вынуждены покинуть компанию из-за разногласий с менеджментом и инвесторами. По данным источника, они пытались уговорить руководство остановить работу компании в России, но сделать этого не удалось.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Напомним, компания NtechLab была основана в 2015 году программистом Артёмом Кухаренко и инвестором Александром Кабаковым. Одним из продуктов разработчика стала платформа FindFace Multi, способная распознавать лица и силуэты людей. Среди заказчиков NtechLab в России госучреждения, а также власти Москвы и Московской области. Алгоритм FindFace является одной из составляющих московской системы распознавания лиц.

Ранее на этой неделе СМИ писали, что разработки NtechLab используются для выявления и задержания лиц, недовольных политикой нынешних властей и принимающих участие в митингах людей. После этого Кухаренко и Кабаков заявили, что они пытались убедить менеджмент и акционеров компании свернуть деятельность в России и переместить всех сотрудников компании за рубеж. Однако руководство NtechLab и большинство акционеров не захотели этого делать, из-за чего Кухаренко и Кабаков решили покинуть компанию.

Представитель NtechLab сообщил журналистам, что ни один акционер не воспользовался правом вето в ходе голосования относительно дальнейшего продолжения работы в России. Это же касается и основателей компании. Однако Кухаренко заявил, что совет директоров никогда не проводил голосование по данному вопросу. Согласно имеющимся данным, он написал заявление об увольнении ещё 25 февраля 2022 года и покинул страну на следующий день. Вся работа была передана сотрудникам компании к концу марта, но Кухаренко продолжал работать в NtechLab до июля.

В Китае придумали одежду, которая делает человека невидимым для камер наблюдения с ИИ

Группа студентов из Университета Уханя реализовала проект, получивший главный приз на первом конкурсе инноваций в области кибербезопасности, проводимом при поддержке компании Huawei. «Кубок Huawei» был присуждён за разработку одежды InvisDefense, которая делает человека невидимым для систем распознавания с камерами на базе искусственного интеллекта.

 Источник изображения: Wei Hui

Источник изображения: Wei Hui

Придуманная студентами одежда работает как днём, так и ночью. Специальный камуфляж вводит ИИ в заблуждение при анализе изображения с камер в видимом свете и в инфракрасном. Днём это простой рисунок на одежде, а ночью — выделяющая тепло проводка на одежде также нанесённая определённым образом.

По словам разработчиков InvisDefense, они стремились к двум противоположным целям. С одной стороны, слежение за людьми достигло такого масштаба, при котором любая приватность тает как дым. С другой стороны, в системах безопасности остаются лазейки, которыми в противоправных целях могут воспользоваться злоумышленники. Очевидно, одежда InvisDefense и другие подобные решения не должны препятствовать работе системе правопорядка, но могут останавливать сбор данных о гражданах в интересах коммерции или частных лиц.

Одежду InvisDefense студенты испытали на системе слежения университетского кампуса. Точность распознавания снизилась на 57 %. Это хороший результат, который может быть ещё улучшен. Но даже в таком виде одежда InvisDefense пригодна для использования, уверены разработчики и надеются организовать её продажу по цене 500 юаней за комплект ($71). В дальнейшем группа намерена разработать аналогичный камуфляж для предметов и автомобилей, а также подумать, как можно обмануть системы слежения со спутников.

Системы лицевой идентификации оказались бессильны перед естественными возрастными изменениями

Технологии распознавания лиц неплохо проявляют себя при выявлении нужных людей в толпе, однако старение человека значительно усложняет для них задачу — в отдельных случаях она становится непосильной. При отсутствии новых снимков человека достаточно всего пяти лет, чтобы серьёзно воспрепятствовать работе системы лицевой идентификации.

 Источник изображения: Tumisu / pixabay.com

Источник изображения: Tumisu / pixabay.com

К неутешительным для современных решений выводам пришла группа учёных из Норвежского университета естественных и технических наук (NTNU), возглавляемая кандидатом наук Марселем Гриммером (Marcel Grimmer). При помощи алгоритма искусственного интеллекта сгенерировали 50 000 человеческих лиц и искусственно их состарили, чтобы посмотреть, как справятся с этой задачей системы лицевой идентификации.

Создатели коммерческих систем распознавания лиц не раскрывают принципов работы своих алгоритмов, поэтому в качестве испытуемых были выбраны решения с открытым исходным кодом. В ходе тестирования исследователи обнаружили, что по мере увеличения возраста образцов точность срабатывания систем понижалась, а по достижении пятилетней разницы между образцом и сверяемым с ним изображением начинались заметные сбои. По достижении 20-летнего порога шансы на положительный результат становились чрезвычайно малыми.

Важным аспектом оказывался возраст образцов: системам было труднее справляться с лицами людей до 20 или старше 60 лет — в эти периоды возрастные изменения происходят быстрее. Господин Гриммер пояснил, что лица младенцев сильно меняются даже за два месяца — можно делать снимок ребёнка каждый месяц, и гарантии результата всё равно не будет. Небольшие изменения в лице отмечаются до 20 лет. Аналогичные процессы начинаются и после 60 лет: «снова меняется форма головы, и появляются более выраженные морщины», а значит, снижается и доля положительных срабатываний.

Самое простое решение для поддержки штатной работы систем лицевой идентификации — регулярно обновлять образцы снимков. Впрочем, это зависит от конкретной задачи, и если речь идёт о конфиденциальности, возрастные изменения могут оказаться естественной формой защиты от вторжения в частную жизнь.

Microsoft ограничит доступ к ИИ-решениям для распознавания эмоций

Компания Microsoft объявила о прекращении продаж технологий, позволяющих распознавать эмоции по выражениям лиц, и более не будет предоставлять неограниченный доступ к программным решениям для распознавания лиц.

 Источник изображения: Erik Mclean/unsplash.com

Источник изображения: Erik Mclean/unsplash.com

Известно, что ещё с прошлого года в Microsoft пытаются определить, насколько системы распознавания эмоций основаны на научном подходе. По словам представителя подразделения Microsoft Azure AI, эти попытки подняли ряд вопросов, связанных с обеспечением конфиденциальности, отсутствием консенсуса относительно самого определения термина «эмоции», невозможностью обобщить связь между выражением лица и настроением в разных обстоятельствах, регионах или половозрастных группах.

Хотя продажи технологии прекращены со вчерашнего дня, использующие сервис клиенты смогут ещё год пользоваться ИИ-инструментами, позволяющими распознавать эмоции, пол, возраст, улыбки, растительность на лице, волосы и макияж.

В прошлом году сервис Google Cloud также заблокировал распознавание 13 видов эмоций в своих инструментах, поставив под вопрос распознавание ещё четырёх, включая, например, радость и печаль. Компания оценивала возможность внедрения новой системы, позволяющей описать мимику вроде хмурости или улыбок без привязки её к эмоциям.

Дополнительно Microsoft заявила, что теперь клиенты должны получить разрешение на использование сервисов распознавания лиц, которые позволяют людям авторизоваться на сайтах или, например, открывать двери с помощью сканирования лиц.

Компания призвала клиентов избегать ситуаций, нарушающих конфиденциальность пользователей, или тех, в которых технологиям будет сложно справляться — вроде определения возраста и распознавания несовершеннолетних. Тем не менее, прямого запрета на использование подобных технологий пока не предусмотрено.

Clearview AI оштрафовали на $9,5 млн и обязали удалить данные жителей Великобритании

Британский регулятор оштрафовал компанию Clearview AI за нелегальный сбор фото жителей Соединённого Королевства на £7,55 млн ($9,5 млн). Кроме того, ей придётся прекратить сбор сведений о жителях страны в социальных сетях и интернете в целом и удалить ранее собранные данные.

 Источник изображения: Tumisu/pixabay.com

Источник изображения: Tumisu/pixabay.com

По словам представителей британских властей, компания не только обеспечивала идентификацию людей с помощью своего ПО, но и занималась мониторингом информации об их привычках, а также предлагала соответствующие данные на продажу.

Управление комиссара по информации Великобритании (ICO) начало совместное с австралийскими властями расследование в отношении Clearview AI в 2020 году и назначило «предварительный» штраф, эквивалентный $21,4 млн в прошлом. На тот момент ведомство сообщило, что база Clearview AI, судя по всему, включает данные существенного числа жителей Великобритании, многие из которых были собраны без их ведома и согласия с общедоступных площадок, включая социальные медиаплатформы.

В окончательном постановлении ICO отметило, что во всём мире компания незаконно собрала более 20 млрд изображений лиц для своей базы данных. И хотя она более не оказывает услуг британским организациям, у неё имеются клиенты в других странах, поэтому компания по-прежнему использует сведения о жителях Соединённого Королевства. В частности, Clearview AI продаёт приложение, позволяющее загружать чьё-либо фото для его последующей проверки по базе. Услугами компании пользуются многочисленные правоохранительные ведомства по всему миру, несмотря на то, что технология с точки зрения закона находится, как минимум, в «серой» зоне.

Twitter, Google и YouTube уже обратились к компании, заявив, что она нарушает условия пользования сервисами. Кроме того, Facebook потребовала прекратить сбор информации. Компания уже получала жалобы от правозащитных групп в Европе и была оштрафована на 20 млн евро в Италии.

В США Американский союз гражданских свобод подавал в суд на Clearview AI за нарушение законов Иллинойса — недавно она пошла на сделку, обязавшись ограничить использование своей базы в этом штате. При этом компания продолжит предоставлять все доступные сведения федеральным правоохранительным ведомствам и властям других штатов.

window-new
Soft
Hard
Тренды 🔥
Вышел Unreal Engine 5.4: улучшение TSR, повышенная производительность и ускоренная трассировка лучей 2 ч.
Институт системного программирования РАН и «Базис» расширяют работу по повышению безопасности российских облачных решений 2 ч.
IBM намерена купить поставщика решений для управления инфраструктурой HashiCorp 2 ч.
Google вновь отложила блокировку сторонних cookie в браузере Chrome 5 ч.
Microsoft продолжает продлевать лицензии на ПО клиентам из России 6 ч.
Еженедельный чарт Steam: No Rest for the Wicked стартовала в тройке лидеров, а Dota 2 вплотную приблизилась к Counter-Strike 2 13 ч.
Олдскульный шутер Phantom Fury наконец вышел в Steam, но первые отзывы настораживают 14 ч.
Руководитель поиска Google призвал сотрудников «действовать быстрее», потому что «всё изменилось» 16 ч.
Приближали как могли: военная стратегия Men of War II выйдет в памятный для серии «В тылу врага» день 17 ч.
Стратегия Songs of Conquest в духе «Героев Меча и Магии» вырвется из раннего доступа уже совсем скоро — разработчики объявили дату выхода 18 ч.