
Согласно анализу, проведенному Праноем Джайнендраном из исследовательского центра Observer Research Foundation, Индия столкнулась с беспрецедентной волной мошенничества с использованием искусственного интеллекта. Исследование показало, что 47% взрослых индийцев либо сами становились жертвами схем с клонированием голоса или дипфейками, либо знают кого-то, кто пострадал. Этот показатель почти вдвое превышает среднемировой уровень в 25%. Финансовые последствия оказались катастрофическими: 83% индийских жертв понесли денежные убытки, причем почти половина из них потеряла более 50 000 индийских рупий.
Технологии искусственного интеллекта и машинного обучения достигли такого уровня, что создаваемый синтетический контент – видео, аудио или изображения – практически неотличим от настоящего. Термин «дипфейк» происходит от слияния слов «глубокое обучение» (deep learning) и «фальшивка» (fake). Он обозначает манипуляцию медиафайлами с помощью нейросетей, обученных на огромных массивах данных. На практике это поддельные изображения лиц, синтетическая речь, имитирующая голоса реальных людей, и видео, где скомбинированы поддельные визуальные и звуковые ряды. Для финансового сектора это открыло новые векторы атак, основанных на социальной инженерии, краже личных данных и крупномасштабном мошенничестве.
Угрозы, исходящие от дипфейков, многогранны и затрагивают целостность данных, конфиденциальность и операционную безопасность финансовых учреждений. Мошенники могут использовать их для фабрикации транзакций, подделки сообщений и обхода систем безопасности. Так, в Индии уже зафиксированы случаи, когда дипфейки с участием якобы чиновников центрального банка и рыночных регуляторов использовались для придания «ложной легитимности» мошенническим инвестиционным схемам. Ярким примером стал инцидент 2024 года в Гонконге, где сотрудник инженерной фирмы, обманутый дипфейк-видео своего финансового директора и коллег во время видеоконференции, перевел мошенникам около 25 миллионов долларов США.
Последствия выходят и на глобальный уровень. Дипфейк-дезинформация может использоваться для манипулирования фондовыми рынками. В мае 2023 года пророссийский аккаунт распространил сгенерированное ИИ изображение взрыва возле Пентагона, что привело к кратковременному падению индекса Dow Jones на 85 пунктов. Технология также ставит под угрозу биометрические системы, снижая надежность распознавания лиц и голоса – механизмов, на которые полагаются многие банки для удаленной верификации клиентов. По мере распространения синтетических медиа растет и недоверие потребителей к цифровым взаимодействиям, что подрывает основы онлайн-банкинга и удаленных консультаций.
Правительство Индии отреагировало на угрозу комплексной стратегией, включающей усиление киберзаконодательства, выпуск предписаний для цифровых платформ и укрепление институциональной базы. Хотя законы технологически нейтральны, они напрямую нацелены на борьбу с дезинформацией и кражей личных данных. Ключевые нормы – Закон об информационных технологиях 2000 года и Правила для IT-посредников 2021 года. Они обязывают платформы проявлять «должную осмотрительность», предотвращая размещение незаконного контента, и удалять дипфейки и дезинформацию в течение 36 часов после жалобы. Несоблюдение грозит потерей «безопасной гавани», защищающей от ответственности, и может привести к гражданскому или уголовному преследованию.
Для координации борьбы с киберугрозами были созданы такие институты, как Индийский координационный центр по киберпреступности (I4C) и Национальная группа реагирования на компьютерные чрезвычайные ситуации (CERT-In). В дополнение к этому, Законы о защите цифровых персональных данных 2023 года и новый уголовный кодекс Bharatiya Nyaya Sanhita 2023 криминализируют кражу личных данных и дезинформацию. Такой многоуровневый подход позволяет Индии сдерживать инфраструктуру мошенничества, не вводя специфических банковских правил против дипфейков, а leveraging широкие нормы в области кибербезопасности и защиты данных для обеспечения безопасности быстрорастущего цифрового финансового сектора страны.