Обмани меня, если сможешь

В одном из недавних номеров газеты мы начали рассказывать о системах распознавания лиц, а теперь давайте вместе поразмышляем о будущем этого новшества и таящихся за ним опасностях. Хотим мы этого или нет, развитие технологий идёт полным ходом, и о результатах такого прогресса судить только с одной точки зрения не стоит.

Для начала один яркий пример о возможностях технологий в этой области – сайт FacesoftheRiot (Лица бунтарей), созданный студентом из Вашингтона. Он использовал приложение с открытым исходным кодом, чтобы извлечь лица из 827 видео, размещенных в соцсетиParler во время штурма Капитолия 6 января 2021 года. Затем он применил нейросеть для распознавания лиц, обученную на 200 тыс. фото из базы ФБР, и идентифицировал людей…

А в 2019-2020 годах в Гонконге во время митингов и гражданских акций было применено распознавание лиц для выявления активистов этих движений. В ответ протестующие для неузнаваемости стали не только уничтожать камеры слежения, но и использовать лазерные указки, маски с чужими лицами и проекторы для лиц. По их мнению, правительство использовало для распознавания личности программу «Face++». И эта система, говорят, уже попала в чёрный список других стран за нарушение прав человека.

И технологии ошибаются

Среди того, что создаётся, казалось бы, на благо цивилизации, конечно, могут быть и погрешности. Так и у данной технологии есть свои «дыры». Во-первых, это утечки.В сетевые базы данных утекают доступы к камерам наблюдения и результатам распознавания. За деньги можно проверить по фотографии, где и когда камеры засекли конкретного человека.

По всему миру в борьбе с «умными» камерами люди придумывают всё новые средства и приёмы. В «бой» идут специальные маски, проекторы, лазеры.

Во-вторых, часто встречаются ошибки в самом распознавании. Например, в 2018 году технология распознавания лиц от компании «Amazon» ошибочно опознала 28 членов Конгресса США как преступников. Недавний пример – это москвич Сергей Межуев, которого система распознавания лиц в метро ошибочно приняла за преступника в розыске. В итоге мужчину задержали, собрали все данные, но не снимали подозрения, пока реальный разыскиваемый не нашёлся.

В-третьих, использование персональных данных без согласия.В США до недавнего времени для обучения нейросетей распознаванию лиц использовали наборы данных с лицами из открытых источников без согласия пользователей. Однако сейчас их убрали, так как это нарушает законы о защите персональных данных. Теперь доступ к ним можно получить по запросу и только для исследовательских (некоммерческих) целей.

Газета «TheNewYorkTimes» опубликовала расследование об использовании фото из «Facebook» и «Twitter» системой распознавания лиц под названием «ClearView» для помощи полиции в поиске людей. Похожие претензии были и к российскому разработчику системы распознавания лиц «NtechLab». Компания имела доступ к фотоальбомам пользователей «ВКонтакте».

Для обучения нейросетей преимущественно используют наборы данных фотографий людей титульной нации. В итоге такие системы плохо распознают азиатов, латиноамериканцев или афроамериканцев. Исследование Массачусетского института технологий от 2018 года показало, что алгоритмы крупнейших компаний по разработке вычислительной техники, таких как «Microsoft», IBMи китайской «Megvii» («Face++») довольно часто ошибаются при идентификации, например, темнокожих женщин принимают за мужчин.Известны случаи проявления дискриминации по полу: например, нейросеть, которая дорисовывает женскимфото тело в бикини, а мужским – в костюме в связи с тем, что в базе данных большинство изображений именно такие.

Антиутопия в поднебесной

Оказавшись в распоряжении властей, программы распознавания лиц вместе с доступом к базам персональных данных предоставляют им неограниченные возможности. Самый радикальный пример того, к чему это может привести – Китай.

Там технологию распознавания лиц открыто применяют уже несколько лет как в аэропортах, так и в другом общественном транспорте, а также на улицах городов.Государство таким образом тестирует систему и планирует распространить её по всей стране. По данным американского телеканала новостей CNBC, в конце 2018 года в Китае использовали более 200 млн камер наблюдения, а к концу 2021-го их число достигнет более 500 млн.

Одна из главных причин – внедрение системы социального рейтинга или кредита, где любой гражданин получает положительные баллы за общественно-полезную деятельность, своевременную уплату налогов и отсутствие других нарушений. За проступки баллы снимаются. Низкий или отрицательный рейтинг приводит к таким последствиям, как отказ в выдаче кредита, отмене социальных выплат, запрет на вылет из страны и работу в некоторых организациях.

Я не узнаю вас в гриме

По всему миру в борьбе с «умными» камерами люди придумывают всё новые средства и приёмы. В «бой» идут специальные маски, проекторы, лазеры.

Известно, что ещё в 2017 году директор по распространению технологий в «Яндексе» Григорий Бакунов придумал специальный макияж, способный обойти нейросети. При создании такого грима он использовал генетический алгоритм, который подбирает образ по принципу анти-сходства.

В Англии тоже есть свои примеры попыток «обмануть» системы распознавания лиц. Так во время протестов в Лондоне в марте 2020 года участники пытались обойти системы слежения с помощью цветных патчей на лице.

Или, например, разработчики сервиса Videomax попытались обмануть алгоритм «Face-Интеллект». Они выяснили, что это возможно, если одновременно надеть парик с длинными волосами и головной убор, наклеить пластыри и усы, а также нарисовать синяки. В этом случае точность идентификации падала до 51%.

Пример макияжа, который использовал Григорий Бакунов

Вьетнамским разработчикам удалось взломать функцию распознавания лиц «Face ID» на iPhone X с помощью 3D-маски, силикона и скотча. Но повторить их метод сможет далеко не каждый.

Есть ещё один момент уловки: когда рядом с объектом помещают специальные стикеры, объёмные фигуры или картины, они сбивают нейросеть с толку.

Но не факт, что все эти способы помогут. С одной стороны, мы точно не знаем, по каким именно приметам нейросети распознают лица сегодня. С другой стороны, алгоритмы обучают по разным схемам и наборам данных. Чтобы обвести их вокруг пальца, необходимо точно знать, как устроена та или иная нейросеть.

Спрятать полностью лицо в публичных местах и на массовых мероприятиях можно, но во многих странах, включая Россию и опять же Китай, это запрещено законом.

Кстати, есть также способы шифрования от распознавания лиц на фотографиях. Например, компания «GeneratedMedia» создала «Anonymizer» – приложение, которое генерирует серию портретов на основеваших фото и делает их неузнаваемыми для нейросетей.

Рассмотрим пример использования специальной электронной маски для обхода узнавания. Возьмём фото, на котором нейросеть опознала американскую актрису Еву Лонгорию, и немного изменим его:

Слева вы видите исходный снимок, справа – маску, наложенную на него, а посредине – результат. В таком виде алгоритм распознавания его не узнает, хотя для нас очевидно, что это та же самая женщина.

Закон за или против

В Великобритании и Европейском союзе действует самый суровый Общий регламент о защите данных– GDPR (GeneralDataProtectionRegulation). Согласно ему запрещено любое посягательство на личную жизнь человека со стороны частных компаний и госорганов без его согласия. Это касается и систем распознавания лиц.

В США нет единого закона, который бы регулировал использование данной технологии. Ближе всех к европейскому GDPR по сути стоит Закон Калифорнии о защите персональных данных потребителей –CCPA. В некоторых штатах действуют ограничения для полиции и других органов: например, в Орегоне, Вашингтоне, Техасе, Иллинойсе, Массачусетсе, Вермонте.

В течение нескольких последних лет компании, работающие в сфере информационных технологий,настаивают на принятии законов на федеральном уровне. В 2020 году IBM объявила о прекращении продаж своих продуктов для распознавания лиц. Вслед за ними корпорации «Amazon» и «Microsoft» временно приостановили сотрудничество с госорганами в этой области. А в июле того же года правозащитники из «Американского союза защиты гражданских свобод» подали иск против разработчика системы распознавания лиц «ClearviewAI» за нарушение закона штата Иллинойс о конфиденциальности биометрической информации.

В Китае, как уже говорилось, распознавание лиц используют повсеместно, и у госорганов есть неограниченные возможности по применению технологии. С недавних пор в этой стране биометрия является обязательной даже просто при регистрации номера телефона.

В России есть закон о защите персональных данных. Но он направлен, в первую очередь, на сохранность самих данных: их необходимо защищать, чтобы предотвратить утечки. Права самих граждан, чьи данные используются, никак не защищены. Безопасность биометрических данных в частной сфере пока не регулируется, у властей с 2019 года есть право использовать распознавание лиц без согласия граждан нашей страны.

Прекрасное далёко не будь ко мне жестоко

Эксперты в области информационных технологий предвещают, что в ближайшие пару лет распознавание лиц окончательно станет массовой технологией. Её будут применять в «умных» и обычных гаджетах, для идентификации и оплаты, прохода в офисы и регистрации в аэропорту, а также для доступа к онлайн-сервисам и аккаунтам в соцсетях.

Камера слежения

В течение 15–20 лет мы полностью перейдём на биометрические паспорта. А вот обмануть алгоритмы или укрыться от камер с распознаванием лиц, по их мнению, станет практически невозможно. Это может означать утрату приватности частной жизни. Однако попытки обхитрить систему были и будут. Ведь многие понимают, что новую реальность не остановить – нужно просто учиться в ней жить.

Подготовил Марк Покровский

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Тайное и Явное