Мы в соцсетях
print

Дипфейки как оружие в руках мошенников

Современные дипфейки выглядят весьма достоверно, однако развитие технологий пока не преодолело недочеты, позволяющие распознать подделку.

Михаил Хохолков: «В скором времени мы услышим о первых российских судебных процессах, так или иначе связанных с дипфейками».

Трудовое право | №12 за 2021 год

Продвинутые системы защиты, которые точно определяют голос или лицо человека, теперь можно обмануть. Несколько месяцев назад мошенники подделали голос директора банка, а затем ограбили его компанию на 35 миллионов долларов. Двое преступников из Китая зашли ещё дальше: они научились обходить государственную систему распознавания лиц и за 2 года заработали на этом больше 75 миллионов, пишет издание Baza.

Всё благодаря технологии Deepfake — специальным методам обучения нейросетей. Такую сеть можно научить чему угодно: достаточно дать ей правильные данные, а она сможет воспроизвести их нужным образом. Deepfake-методы, в свою очередь, обучают создавать копии разных объектов, а также помещать их на запись. Специалисты предупреждают: в плохих руках технология может представлять серьёзную опасность.

Журнал «Трудовое право» попросил прокомментировать, как суды будут реагировать на такие ситуации.

Наш комментарий:

Михаил Хохолков, INTELLECT, специально для журнала «Трудовое право»:

Если дипфейк в видеоформате будет создавать ситуацию угрозы причинения вреда жизни или здоровью граждан, то по решению прокуратуры он будет заблокирован.

Комментирует Михаил Хохолков, ведущий юрист INTELLECT:

Дипфейк (deepfake) — это термин, производный от выражений «глубинное обучение» (deep learning) и «ненастоящее», «подделка», «фейк» (fake).

Если говорить упрощенно, то глубинное обучение — это методы и системы обучения искусственного интеллекта, которые основаны на изучении большого объема данных. С помощью анализа и обработки создаются точные копии сложных объектов – например, лица человека или его голоса. Затем с помощью другой технологии, называемой Generative Adversarial Network (GAN,) можно создать видео, на котором образ одного человека будет заменен на образ другого. Так и получаются дипфейк-видео, на которых фейкового персонажа непросто отличить от оригинала.

Кажется, любая новая технология вызывает массу вопросов и дискуссий — как морально-этических, так и правовых.

На законодательном уровне в России проблема дипфейков пока никак не урегулирована. Это означает, что если сейчас суду придется разбираться в цифровой подделке, то придется применять текущие правовые нормы. Это возможно.

Предположим, что с помощью дипфейка в видео была распространена недостоверная информация.

Судебный процесс всегда состязательный. Это означает, что каждая сторона доказывает те обстоятельства, на которые ссылается. Для разных категорий споров распределяется только бремя доказывания.

Например, в делах о защите деловой репутации истец должен доказать факт распространения и порочащий характер информации. Ответчик по общему правилу доказывает достоверность информации. В ситуации с фейковым видео задача ответчика — доказать, что видео подделано.

Сделать это можно с помощью экспертизы. Ответчик в нашем примере должен указать на весомые доводы, свидетельствующие о подделке, и ходатайствовать перед судом о назначении судебной экспертизы.

Некоторые признаки подделки видны невооруженным глазом. К примеру, неожиданно возникающие или пропадающие предметы в кадре или неестественные интонации в голосе, неестественная мимика. На такие признаки нужно указать, мотивируя необходимость назначения экспертизы.

Пока дипфейки — не самая развитая технология, поэтому техническая экспертиза сможет убедить суд в наличии стороннего вмешательства в видео.

Но проблема в другом. Судебная защита не работает на опережение или предотвращение ущерба. Речь идет только о компенсации уже причиненного вреда.
А в ситуации с недостоверной информацией важна оперативность пресечения ее дальнейшего распространения. Это можно сделать только с помощью правоохранительных органов.

Текущее состояние законодательства допускает внесудебную блокировку недостоверной общественно-значимой информации: весной 2020 года был принят так называемый «закон о фейк-ньюс». Закон №149-ФЗ «Об информации, информационных технологиях и о защите информации» не различает форматы изложения фейковых сведений. Поэтому если дипфейк в видеоформате будет создавать ситуацию угрозы причинения вреда жизни или здоровью граждан, то по решению прокуратуры он будет заблокирован.

По мере развития технологий будет формироваться правоприменительная практика и должно совершенствоваться законодательство. Поэтому в скором времени мы услышим о первых российских судебных процессах, так или иначе связанных с дипфейками, и увидим законодательные инициативы, регулирующие это явление.

Комментарии экспертов юридической фирмы INTELLECT >>

деловая репутация, медиа, персональные данные, программное обеспечение

Похожие материалы

Юридические услуги, разрешение споров, патентные услуги, регистрация товарных знаков, помощь адвокатаюридическое сопровождение банкротства, услуги арбитражного управляющего, регистрационные услуги для бизнеса


Екатеринбург
+7 (343) 236-62-67

Москва
+7 (495) 668-07-31

Нижний Новгород
+7 (831) 429-01-27

Новосибирск
+7 (383) 202-21-91

Пермь
+7 (342) 270-01-68

Санкт-Петербург
+7 (812) 309-18-49

Челябинск
+7 (351) 202-13-40


Политика информационной безопасности