Разрабатываемая «ВКонтакте» технология будет проверять загруженные на платформу фотографии или видеоролики на наличие изменений в них.
С развитием алгоритмов дипфейки становятся совершеннее, считают в «Лаборатории Касперского». «Например, если раньше можно было определить видеоподделку по отсутствию моргания цифровой копии человека, то теперь этот нюанс устранен. Также у объектов дипфейков могут не совпадать тон кожи и лица или исчезать “маска” — это видно в том случае, если человек на экране слишком быстро или под острым углом поворачивает голову либо двигает рукой возле лица. Другой признак — несовпадения, ошибки в синхронизации губ и речи. Продвинутые технологии позволяют убрать и такие недостатки, однако на создание качественного видео уходит много вычислительных ресурсов и времени, и далеко не все ими располагают», — рассказал старший исследователь данных «Лаборатории Касперского» Владислав Тушканов.
В компании VisionLabs (разработчик искусственного интеллекта для решений в области распознавания лиц) считают, что для соцсети «ВКонтакте» детектор дипфейков — это полезный инструмент и правильный шаг в маркировке контента, который даст пользователям дополнительную информацию о том, можно ли доверять видео или изображению. Кроме этого, сфера применения детекторов дипфейков может быть расширена и использована не только для определения компрометирующего контента, но и при аутентификации и авторизации по биометрии, в первую очередь, при совершении финансовых операций, считает генеральный директор VisionLabs Дмитрий Марков.
По словам юристов, в законодательстве существуют правовые механизмы для привлечения виновных лиц к ответственности за сбыт дипфейков. «Распространителя можно привлечь как минимум к гражданско-правовой ответственности за незаконное использование изображения гражданина. Согласно статье 152.1. Гражданского кодекса РФ, гражданин может требовать прекращения использования его фото. Если распространен дипфейк, содержащий недостоверную и порочащую гражданина информацию, то в этом случае можно требовать компенсации морального вреда по иску о защите чести и достоинства гражданина», — пояснила адвокат, старший юрист практики разрешения споров юридической компании «ССП-Консалт» Яна Кириллова.
Сама по себе технология дипфейка нейтральна, а все зависит от того, кто ее использует, подчеркнули в «Лаборатории Каасперского». Основная опасность заключается в том, что видеоподделки могут использовать злоумышленники для обмана пользователей. Например, с их помощью они могут пытаться выманить деньги и данные, выдавая себя за других людей. Таким образом, большинство известных случаев использования дипфейков сводятся к приемам социальной инженерии. Однако были зафиксированы случаи, когда таким образом люди пытались устроиться на работу по видеособеседованию, добавил Владислав Тушканов.
Иногда дипфейк создается с целью ввести граждан в заблуждение для похищения денежных средств или иного имущества. «В этом случае лицо, распространившее дипфейк и получившее имущество, будет привлечено к уголовной ответственности за хищение, также как и создатель дипфейка, в зависимости от степени участия в преступлении. Как правило, создатель и распространитель это одно лицо», — резюмировала Яна Кириллова.
Ранее «Телеспутник» сообщал, что «ВКонтакте» разработала уникальную нейросеть, которая способна выявить ругательства, оскорбления и другие негативные высказывания в постах и комментариях. Кроме того, появился режим «Личное пространство» — это специальный набор настроек, который позволяет на время ограничить круг общения и оградить пользователя от нежелательной информации и общения.