Количество кибератак с использованием технологии дипфейков в России может увеличиться в десятки тысяч раз за три года.
Дипфейк – это технология, представляющая собой фотореалистичное объединение изображений с помощью искусственного интеллекта: алгоритм анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Нейросеть собирает из интернета фотографии человека с разными выражениями лица и создает из них новое изображение или видео. Сам термин deepfake демонстрирует смысл технологии через объединение двух понятий: глубокое обучение (нейросетей) (deep learning) и фальшивка (fake).
Самые распространенные атаки с применением аудиодипфейков – это синтез голоса и склейка аудио из фрагментов ранее записанной речи.
Технология создания дипфейков уже не исчезнет, ее нельзя запретить или технически ограничить. Поэтому лучшая защита – соблюдение правил безопасности:
– не загружайте свои фото и видео в соцсети и сторонние сервисы (или хотя бы ограничьте доступ к ним);
– проинформируйте коллег и членов семьи о том, как устроены дипфейки и с какими потенциальными рисками они связаны;
– если возникли подозрения, что перед вами дипфейк, используйте второй канал связи для проверки информации;
– чтобы подтвердить личность собеседника, спросите его о каком-либо факте, который известен только ему и вам;
– соблюдайте базовые правила кибербезопасности: надежное хранение паролей, защиту данных, защиту от вредоносного программного обеспечения, резервное копирование и др.