— Насколько перспективным вам видится применение технологий биометрической аутентификации?
— Для применения биометрических технологий есть перспективные направления, в частности банковские услуги, где обещают повысить безопасность с помощью многофакторной авторизации с биометрией. Но меня смущает, что в 2018 году Банк России предписал, практически обязал российские банки использовать биометрию. Это, во-первых, сложно для самих банков, так как им нужно найти соответствующее недешевое оборудование. Во-вторых, безопасность хранения биометрических данных в базе должна быть усилена, потому что это сверхчувствительная информация. Это значит, что необходимо потратиться на защиту и на технологии распознавания. Неизвестно, станут ли банки это делать. Мне подробно рассказывали разработчики, как сделана биометрическая система авторизации клиентов в Сбербанке. Там уделено серьезное внимание безопасности, в частности внедрена многоуровневая защита, система мониторинга, непрерывно отслеживающая, кто из сотрудников и как с этой базой работает. Однако не у всех есть такие ресурсы, как у Сбербанка. Кроме того, если трудно взломать систему самого банка для кражи денег со счетов, то не факт, что нельзя применить купленную у инсайдеров банка биометрию для атак на другие системы. То есть одно дело — взлом, а другое — утечка.
Но есть еще один важный аспект: пока еще узкое применение биометрии. В частности, у большинства банков выставлен потолок по платежам с использованием биометрии — до двухсот тысяч рублей. Поэтому пока взлом такой системы внутри банка — для кражи денег со счетов — невыгоден. Даже если злоумышленник получит биометрические данные — а как мы знаем, данные обычно именно покупают или крадут изнутри, в основном нелояльные сотрудники предприятия, — пользоваться ими будет слишком дорого и сложно. Для малых сумм это просто не имеет смысла. Но предполагается, что с развитием биометрических технологий все перейдут на платежи с использованием идентификации по биометрическим данным. И тут встает вопрос: а смогут ли обеспечить для таких данных надлежащую защиту, когда мотивация инсайдеров и их криминальных партнеров вовне банков значительно вырастет?
Я давно работаю в сфере информационной безопасности и вижу, что, как только технология становится массовой, как только ее начинают использовать применительно к деньгам, на нее тут же начинаются массовые и очень профессиональные атаки. Нам говорят, что биометрия в Единой биометрической базе, ЕБС, хорошо защищена, но в реальности осуществить какую-то специальную, сверхпрочную защиту любой базы данных — это крайне сложно и дорого.
Количество утечек из любых баз данных сейчас быстро растет, даже у очень серьезных предприятий происходят утечки данных, часто огромного масштаба. При этом у биометрических данных есть одно принципиальное отличие от любых других: наша биометрия от нас неотделима, это наша жизнь. И если у человека «украли лицо» или «украли голос», ему будет крайне сложно доказать, что он, допустим, не продавал квартиру или не совершал какое-то преступление. Если можно заменить пароль, логин, сменить имя или паспорт, то лицо, отпечатки пальцев, сетчатку глаза, характеристики голоса изменить нельзя. Это сверхчувствительные и одновременно неизменные данные, их достаточно украсть единожды, чтобы сломать человеку жизнь, создать огромные проблемы.
Поэтому к таким данным нужен особый подход. Они должны быть чрезвычайно надежно защищены, модель угроз и методы защиты должны быть разработаны и протестированы задолго до широкого использования биометрии по всей стране.
— Какой подход нужно применять в отношении технологий биометрических данных?
— Нужно исходить из того, как их предполагается применять. В банковской сфере в использовании таких технологий есть резон. А вот применять биометрию в метро — это спорно. Да и оснований как-то не видно, кроме избитых — инновационность и удобство. Что, сложно заплатить картой «Тройка»? В чем тут трудность или неудобство? А вот давайте представим, что биометрическая система дала сбой, люди в восемь утра пытаются войти в метро и «заплатить лицом», а система не работает, других средств оплаты не предусмотрено, тогда в перегруженном московском метро случится транспортный коллапс.
У нас цифровизация идет галопирующим темпом, и модель защиты от угроз зачастую не проработана. Даже если вы возьмете ту модель угроз, которую опубликовал Центральный банк в отношении биометрии в 2019 году, то там предусмотрено много негативных сценариев (хотя и не все — это было два года назад, криминал на месте не стоит), но не сказано, как эти угрозы должны предотвращаться банками. Меня это удивило. А ведь кроме риска утечек биометрических данных есть и другие серьезные угрозы.
Пока стопроцентно надежных систем защиты данных, в том числе биометрических, не придумано. Даже очень защищенные базы «текут», потому что данные тащат собственные сотрудники. Получается, что люди, которые имеют доступ к таким базам, должны брать на себя особые обязательства
— Какие именно?
— Я имею в виду дипфейки (deep fake) — возможность подменять лицо с помощью технологии нейронных сетей и машинного обучения. В сети можно найти много роликов с демонстрацией того, как работают эти технологии, — на примере замены лиц популярных политиков и знаменитостей. Для них делать фейки особенно легко — много доступного материала. Но и данные среднего человека — лицо, голос, походка — каждый день попадают в десятки баз данных самого разного уровня и принадлежности. Такие подделки сейчас настолько высокого качества, что биометрические системы распознавания лиц, например системы биометрической авторизации Amazon, согласно результатам южнокорейских исследователей, пробиваются в 78 процентах случаев, а Microsoft Azure — в 68 процентах. То есть в трех случаях из четырех фальшивка не распознается.
Обычно разработчики системы авторизации в банках говорят: «Нам фейк не подсунешь, мы проверяем лицо на “живость”, проверяем, что лицо на камере моргает, есть мимика, все это считывается». То есть, как обычно, обещают, что вот уж следующий уровень технологии будет таким крутым, что точно решит проблему. Но ведь противники на месте тоже не стоят, они тоже профессионалы и обычно на шаг впереди. Недавно поставили эксперимент — подсунули дипфейк Илона Маска в нашу налоговую службу. Теперь он зарегистрирован в нашей ФНС, кажется, он даже что-то там должен. Это было несложно сделать, потому что Маск много выступает, у него масса видео и фото в сети, на основе чего можно сделать качественную подделку. Как говорят сейчас специалисты, имея доступ к смартфону (физический или через «подсаженное» приложение), можно подменить видеопоток на камере смартфона, обеспечив «живость» лица, только другого, краденого. И что с такими и разными другими подделками делать, пока не очень понятно. Может, давайте сначала научимся отличать фейки, а потом будем внедрять биометрию?
— Что вы думаете об идее развития Единой биометрической системы в России?
— Мне эта идея крайне не нравится. В информационной безопасности есть такое понятие «единая точка входа», и, если в отношении биометрии мы создадим такую единую точку входа, утечки будут происходить гарантированно. Единая точка входа может быть сильнее защищена, но она дает такие возможности получить все и сразу, что мотивация преступника (точнее, преступной группы «мошенник плюс инсайдер») резко повышается. Потом, я не понимаю, зачем вообще нужна единая система? Согласно замыслу, все контрагенты, банки, государственные органы, коммерческие структуры будут обязаны передать эту биометрию в ЕБС. Правда, пока с согласия гражданина.
Итак, эти данные попадают в общий котел. И допустим, обнаруживается утечка: биометрические данные начинают массово продаваться на хакерских форумах в даркнете. Кто будет в этом случае нести ответственность? «Ростелеком» как оператор Единой биометрической системы? А почему бы «Ростелекому» не сказать, что это, мол, у Сбербанка украли, а у него все отлично? А Сбербанк, в свою очередь, заявит, что это не у него украли, а из ЕБС. Ведь источник утечки обычно неясен, нужны серьезные расследования. Создается размытие ответственности, возможность кивать друг на друга.
Пока стопроцентно надежных систем защиты данных не придумано. Даже очень защищенные базы «текут», потому что данные тащат собственные сотрудники с высоким уровнем прав доступа. Получается, что люди, которые имеют доступ к таким базам, должны брать на себя особые обязательства, подписывать документы, разрешающие им доступ к сверхсекретным данным. И если что-то утечет, они должны нести ответственность по всей строгости, с реальными уголовными сроками. Иначе получается, что к нашим ценным биометрическим данным будут иметь доступ какие-то не несущие ответственности люди. Утекли данные — они пожали плечами: «Бывает, что уж…»
Наша группа компаний постоянно отслеживает ситуацию с утечками данных. Только за прошлый год произошло больше двух тысяч крупных инцидентов — 2395 утечек по миру; всего утекло одиннадцать миллиардов персональных записей. И где наказания виновных, где посадки, как говорит наш президент? Было несколько мелких приговоров, но по большому счету за крупные утечки так никто не ответил и не отвечает — ни у нас в стране, ни за рубежом. И в этой ситуации внедрять еще и биометрию — преступно. Кроме того, в программе «Цифровая экономика» заявлено, что данные граждан (в том числе из ЕБС) будут передаваться коммерческим компаниям. Непонятно, зачем такие сверхчувствительные данные граждан, подвергающие риску их базовые права и интересы, будут отдаваться каким-то коммерсантам? Мне кажется, это неправильно. То есть в единой биометрической системе данных я особых плюсов не вижу, а очевидных минусов очень много.
— Сторонники развития биометрических технологий говорят, что их использование даст новый уровень удобства.
— Это классический аргумент, как будто «удобство» является нашим национальным приоритетом и главной целью. В каком документе стратегического планирования РФ такое заявлено? Стоит ли, например, удобство использования своего лица в очень сомнительных обстоятельствах того, чтобы разменивать право первородства на чечевичную похлебку? А что еще на следующем шаге нам предложат для «удобства»: абсолютную прозрачность, лицо как единый идентификатор, создание социального рейтинга, чтобы нас всех загнать в цифровой концлагерь? Так себе идеи.
— А как насчет безопасности, использования биометрии силовыми структурами для защиты граждан? Например, с помощью таких технологий легче ловить преступников.
— Работа спецслужб — это совершенно особый разговор, там люди в погонах и под присягой, у них нет ощущения, что все в их власти и гравитации не существует. Но даже у них есть проблема излишнего доверия к искусственному интеллекту в целом и биометрии в частности. Вспомните недавние истории с певцом Коротичем и режиссером Ермошиным. Грубо, с нарушением процедур, схватили людей на улице, потащили в отделение, по дороге еще и побили, при том что у одного из них был паспорт, он был готов его предъявить, а фото другого есть на сайте Мариинского театра. На лицо «глазами» посмотрели только в отделении и только тогда поняли, что это не тот человек.
Эти случаи показывают невероятно быстро развившееся излишнее доверие к системам искусственного интеллекта. При этом любая ИИ-система подвержена ошибкам первого и второго рода: может пропустить цель (то есть в данном случае не узнать разыскиваемого) либо — как в описанных выше случаях — выдать ложную тревогу (то есть распознать преступника в абсолютно постороннем, ни в чем не виновном гражданине). И это риск, особенно при массовом применении. Нужно, чтобы правоохранители не слишком доверяли таким системам. Чтобы всегда последнюю проверку делал человек.
— Что вы думаете о зарубежном опыте использования биометрических данных? Может, нам нужно использовать опыт тех же европейских стран, где применение биометрических данных имеет значимые ограничения?
— Нам нужно сначала менять законодательство, повышать уровень ответственности. Потому что закон № 152-ФЗ «О персональных данных» в его текущем применении подразумевает административную ответственность, то есть довольно слабые штрафы. Да, там есть также риск для генерального директора компании, он после доказанного и расследованного инцидента с утечкой не сможет занимать такую же управленческую должность. Но при этом практически никого не наказывают, мало правоприменительной практики. А в европейском кодексе GDPR (General Data Protection Regulation) штрафы большие, но на практике (по публикуемым данным о делах) — в основном за неправильно оформленные бумаги и процедуры. Серьезной ответственности за утечки сейчас никто нигде не несет.
— Создатели системы Face Pay в метро говорят, что они хранят в своей базе только векторный код, а сами биометрические данные в виде изображений лиц у них не хранятся. С их слов, даже если кто-то получит доступ к векторному коду, он не сможет увидеть лицо человека и воспользоваться такой информацией.
— Я в это лукавство не верю, потому, что в системах такого рода все равно есть абсолютная необходимость хранения исходной, «сырой» биометрии. Во-первых, это связано с естественными событиями программной системы: обновлениями и сбоями. Если вы не храните непосредственно биометрическую информацию, то в случае сбоев или развития в системе может что-то покривиться, база «хешей» может пропасть или испортиться. В этом случае нужно еще раз переобучить базу на исходных, «сырых» биометрических данных. А если у вас их нет, на чем вы будете ее переобучать? Без исходной биометрической информации систему обновить будет невозможно, так не делают, все IT-системы сейчас обновляются. Та же история с обновлением распознающего программного обеспечения. Его нужно заново обучить. Как это сделать? Заново заставлять миллионы пользователей сдавать биометрию? Да нет, так никто не делает — переобучают по исходным данным, которые в системе, конечно, хранятся.
Вторая причина заключается в необходимости расследовать инциденты. Допустим, клиент системы утверждает, что не «платил лицом», или кто-то прошел не туда, что-то нахулиганил. Чтобы разобраться, операторам системы все равно придется посмотреть глазами, тот ли это человек, совпадает ли его лицо во время инцидента с биометрическими данными в системе (или послушать голос). А если у них в системе хранится только хеш-код, из которого нельзя восстановить лицо, — куда они будут смотреть? Получается, что саму исходную биометрию в виде фотографии, голоса или видео все равно нужно где-то хранить.
Так что в отношении массового использования биометрических данных у нас еще много нерешенных проблем. На мой взгляд, не стоит внедрять такие технологии слишком поспешно, не предусматривая возможных негативных последствий, не продумав тщательнейшим образом модель угроз, не спроектировав и не выстроив надежную защиту.