КибербезопасностьПодделка голоса с помощью ИИ: как защитить семью в 2026 году
Клонирование голоса через искусственный интеллект стало оружием мошенников номер один. Узнайте, как вас обманывают с помощью 3 секунд записи, и освойте кодовое слово, которое защитит вашу семью.
Что вы узнаете
- Вы поймёте, как мошенник способен клонировать голос вашего близкого всего по 3 секундам публичной записи
- Вы узнаете о четырёх реальных случаях, в которых компании и семьи потеряли миллионы долларов из-за поддельного голоса
- Вы освоите протокол семейного кодового слова, который нейтрализует 99% голосовых мошеннических атак
В феврале 2024 года финансовый сотрудник гонконгского филиала британской инженерной компании Arup сидел перед монитором и видел на экране своего финансового директора вместе с пятью коллегами на прямом видеосовещании. Они просили его перевести 25,6 миллиона долларов. Лица знакомые, голоса узнаваемые, интонации убедительные — и всё это было подделано искусственным интеллектом. Обман раскрылся только через неделю, когда деньги уже ушли.
Клонирование голоса с помощью ИИ (AI Voice Cloning) — это воспроизведение голоса реального человека с помощью генеративных моделей, обученных на коротких аудиосэмплах. Современным инструментам вроде ElevenLabs, Microsoft VALL-E и OpenAI Voice Engine нужно всего 3 секунды звука, чтобы создать точную копию, способную произнести любой текст, с любой эмоцией и на любом языке.
История началась не с Arup. За пять лет до этого британская энергетическая компания потеряла 243 тысячи долларов — это был первый задокументированный случай подделки голоса руководителя. Сегодня инструмент, который раньше стоил тысячи, доступен любому подростку за 5 долларов в месяц. Я расскажу, как работают такие атаки, разберу четыре реальных случая и научу вас протоколу кодового слова — единственной защите, которая устоит перед искусственным интеллектом.
Как ИИ клонирует ваш голос за 3 секунды?
Современное клонирование голоса состоит всего из трёх этапов: мошенник собирает аудиосэмпл из публичного видео (Instagram, TikTok, голосовое сообщение или даже ваше «алло» при ответе на незнакомый номер), загружает его в модель вроде ElevenLabs или VALL-E, а затем вводит нужный текст — и модель произносит его вашим голосом и вашими интонациями. Весь процесс занимает меньше двух минут.
Современные модели вышли далеко за рамки механической имитации. В 2023 году Microsoft представила модель VALL-E, которая улавливает не только тембр голоса, но и окружающую акустику — эхо комнаты, манеру дыхания, даже оттенки грусти или гнева. Годом позже OpenAI показала Voice Engine, способный клонировать голос между языками: вы записываете образец на русском, а модель свободно говорит тем же голосом на английском или французском.
По данным отчёта Pindrop по голосовой аналитике за 2024 год, атаки с подделкой голоса на колл-центры выросли на 1300% только за 2023 год. Крупные банки уже начинают отказываться от голосовой аутентификации, на которую опирались десятилетиями — она больше не различает настоящего клиента и его цифровую копию.
Экспертов беспокоит не техника. Инструмент уже существует и доступен. Вопрос в другом: сколько секунд вашего голоса прямо сейчас лежит в интернете? Старые Stories, запись в семейном чате WhatsApp, голосовое сообщение в группе — всё это сырьё для мошенника. Если вы активны в соцсетях, ваш голос готов к клонированию уже много лет.
Какие голосовые мошенничества потрясли мир?
Четыре случая обобщают всю эволюцию угрозы: взлом Arup на 25 миллионов долларов в 2024 году, инсценированное похищение дочери Дженнифер Дестефано в Аризоне в 2023-м, ограбление банка в ОАЭ на 35 миллионов долларов в 2020 году и имитация голоса сенатора Бена Кардина в 2024-м. Каждый эпизод вскрыл новую уязвимость, которую жертвы считали неприступной.
1. Инцидент с Arup — самый дорогой видеозвонок в истории (февраль 2024)
Инженерно-консалтинговую компанию Arup (та самая, что спроектировала Сиднейский оперный театр) мошенники атаковали в Гонконге способом, которого раньше не видели. Сотрудник получил письмо с приглашением на «секретную» встречу с финансовым директором. Сначала он засомневался, но когда подключился к звонку Microsoft Teams, увидел настоящие лица и услышал знакомые голоса. Все участники на экране были заранее подготовленными deepfake — в звонке вообще не было ни одного реального человека, кроме самой жертвы.
Были проведены 15 транзакций на пять счетов в Гонконге общей суммой 200 миллионов гонконгских долларов (около 25,6 миллиона долларов США). Обман раскрылся, когда сотрудник связался с головным офисом для подтверждения. Фишинг стал входной дверью, но сделку довёл до конца именно искусственный интеллект.
2. Звонок Дженнифер Дестефано — «Мама, помоги мне» (апрель 2023)
Американская мать Дженнифер Дестефано приняла звонок с неизвестного номера в Аризоне. Она услышала голос своей 15-летней дочери, которая кричала и плакала: «Мама, меня похитили!». Затем в разговор вступил мужской голос и потребовал выкуп в миллион долларов, позже снизив сумму до 50 тысяч. Дженнифер была абсолютно уверена, что это голос её дочери — всхлипы, рыдания, сама манера обращения. К счастью, её мужу удалось за несколько минут дозвониться до дочери и обнаружить, что та спокойно находится дома.
3. Взлом банка в ОАЭ — 35 миллионов долларов (2020)
Ещё до того, как технология стала массово доступной, профессиональные мошенники использовали её в крупной атаке на банк в ОАЭ. Менеджеру филиала позвонил «генеральный директор» крупной компании и попросил срочный перевод для сделки по поглощению. Звонок был подкреплён письмами от «юриста» по имени Martin Zelner. Голос звучал настолько убедительно, что менеджер согласился перевести 35 миллионов долларов на счета по всему миру. Позже, в 2021 году, эту историю раскрыло федеральное расследование в США.
4. Сенатор Бен Кардин — политический deepfake (сентябрь 2024)
Случай другого типа: американский сенатор Бен Кардин принял видеозвонок, считая, что разговаривает с бывшим министром иностранных дел Украины Дмитро Кулебой. Вопросы оказались настолько политически чувствительными и нетипичными, что вызвали у сенатора подозрения. Позже выяснилось, что весь звонок был полным deepfake — синтетическое лицо, клонированный голос и сценарий, рассчитанный на то, чтобы выудить заявления для операций влияния. Этот инцидент стал первым официальным признанием Сената США того, что deepfake превратился в прямую угрозу национальной безопасности.
Какие признаки выдают поддельный голосовой звонок?
Существует пять ключевых признаков: искусственная срочность, не оставляющая времени на размышления; просьба о деньгах или доступах в звонке, которого вы не ждали; сильная эмоция (плач, страх, гнев), которая мешает проверить факты; неизвестный или скрытый номер; отказ собеседника отвечать на любой проверочный вопрос вроде «на какой улице мы живём?». Если присутствуют три признака одновременно, вероятность мошенничества — 95%.
Золотое правило: эмоция на том конце провода — это оружие, а не доказательство. Профессиональный мошенник использует ИИ, чтобы создавать абсолютно правдоподобные крики, плач и всхлипы. Чем больше в голосе мольбы или паники, тем сильнее нужно остановиться и проверить — а не слабее.
Есть и тонкие технические признаки, которые можно заметить, если вслушаться. Клонированный голос обычно лишён естественного дыхания между фразами — звучит слишком гладко. Интонация может быть ровной в отдельных словах, а фоновые звуки (шум улицы, эхо комнаты) не соответствуют заявленной ситуации. Но эти признаки исчезают с каждым новым обновлением моделей, так что полагаться только на них нельзя.
Самое опасное в таких атаках — то, что они эксплуатируют голосовое доверие, биологически укоренённое чувство. Мозг человека с раннего детства связывает знакомые голоса с безопасностью, поэтому вы автоматически верите голосу матери или сына раньше, чем подключается логика. Искусственный интеллект бьёт точно в этот нейронный короткий путь.
Как защитить семью с помощью протокола кодового слова?
Протокол кодового слова (Safe Word) — это заранее согласованное внутри семьи слово или фраза, которая используется только в настоящих экстренных ситуациях для проверки личности звонящего. Если вам звонит человек и утверждает, что ваш родственник в беде, попросите назвать кодовое слово. Не знает — значит, это мошенник, каким бы убедительным ни был голос.
Как создать эффективное кодовое слово для семьи:
Выберите слово или фразу, никак не связанную с вашей публичной жизнью — не кличку питомца, не название улицы, не дату рождения. Примеры: «синий сапфир» или «арбуз девять». Договоритесь устно (не в переписке WhatsApp), обязательно научите детей и пожилых родственников. Правило простое: любая просьба о деньгах или срочном действии должна пройти через это слово, без исключений.
Красота этого протокола в том, что он бесплатен и инженерно устойчив к ИИ. Модель может клонировать голос, но не способна выдумать информацию, которой никогда не видела. Даже если мошенник соберёт все публичные посты вашей семьи, он не найдёт слово, согласованное лицом к лицу в гостиной.
Попробуйте на этой неделе: сядьте с семьёй на час и выберите два слова — одно для финансовых экстренных случаев, другое «для спасения из неловкой ситуации». Объясните родителям, что любой звонок от вашего имени с просьбой о деньгах без кодового слова — это мошенничество, даже если «ваш голос» на том конце плачет. Один такой разговор стоит тысяч рублей защиты.
Что делать в первые минуты после подозрительного звонка?
В течение трёх минут после звонка выполните эти шаги по порядку: немедленно завершите разговор без пререканий, перезвоните предполагаемому человеку напрямую по известному вам номеру (не тому, с которого поступил звонок), сообщите в банк, чтобы заморозить любой уже проведённый перевод, и только потом обратитесь в правоохранительные органы. Скорость в первые минуты решает, вернутся ли деньги.
Шаг 1 — прервите звонок и свяжитесь через другой канал
Не продолжайте разговор с мошенником, чтобы «убедиться». Каждая лишняя секунда даёт ему возможность давить психологически. Положите трубку, откройте WhatsApp или напрямую позвоните настоящему человеку. Если он не отвечает, попробуйте другого родственника. Большинство мнимых «похищений» разоблачаются за две минуты одним звонком предполагаемой жертве.
Шаг 2 — сообщите в банк раньше, чем куда-либо ещё
Если вы уже перевели сумму, позвоните на экстренную линию банка (номер напечатан на обратной стороне карты, не берите его из интернета). Запросите отзыв перевода (Recall). Большинство российских и европейских банков позволяют отменить внутренние переводы в течение 24 часов, а международные — в пределах нескольких часов.
Шаг 3 — зафиксируйте детали звонка, пока не забыли
Номер, время с точностью до минуты, упомянутые суммы, услышанные голоса, названные имена. Эти детали критичны для следствия. Если ваш телефон записывает звонки, сразу сохраните запись в безопасном месте.
Шаг 4 — обратитесь в официальные органы
- Россия: полиция — 102, Единый номер экстренных служб — 112, горячая линия «Безопасный интернет» — 8-800-250-00-15, Банк России — cbr.ru/reception/
- Казахстан: полиция — 102, КЦИБ (Государственная служба реагирования) — cert.gov.kz
- Украина: киберполиция — 0-800-505-170 или cyberpolice.gov.ua
- Международно: сайт IC3.gov для международного онлайн-мошенничества
Как уменьшить ваш цифровой голосовой след до того, как вас выберут целью?
Чтобы сократить сырьё, доступное для клонирования голоса, уменьшите публичный аудиоконтент в своих аккаунтах, настройте приватность «только для друзей» в Instagram и TikTok, не отвечайте «алло» на звонки с незнакомых номеров и удалите старые голосовые сообщения в общих чатах WhatsApp. Чем меньше сэмплов вашего голоса, тем уже поле для мошенника.
Простой приём против сбора голосовых образцов: мошенники звонят с неизвестных номеров, чтобы записать ваше «алло, да, кто это?». Вместо того чтобы отвечать голосом, молчите 3 секунды — автоматический мошеннический бот сбросит звонок, потому что не получил образца. Настоящий собеседник заговорит сам. Эти три секунды защитят вас от 80% автоматических голосовых фишинговых звонков.
Самая сложная задача — пожилые родственники. Они сильнее всех доверяют голосам и меньше всех понимают, на что способен ИИ. Сядьте с родителями или бабушкой и включите им образец ElevenLabs с клонированным голосом известного человека (их полно в бесплатном доступе на YouTube). Наглядно покажите: убедительный голос вообще не означает настоящую личность. Один такой визуальный урок делает больше, чем тысяча письменных предупреждений.
На техническом уровне отслеживайте банковские счета через мгновенные уведомления, включите многофакторную аутентификацию на каждом аккаунте, где есть деньги, и используйте дополнительный PIN в банке для переводов выше определённой суммы. Многие банки уже добавили опцию «проверка по секретному вопросу» перед крупными переводами — активируйте её сегодня.
Начните сегодня
Защитите близких всего за десять минут: позвоните маме, папе, братьям и сёстрам, договоритесь о семейном кодовом слове и запомните его (не записывайте на бумаге). Затем зайдите в Instagram и TikTok и переведите все старые записи в режим «только для друзей». Два этих шага уже перекрывают дорогу большинству мошенников, которые охотятся сейчас на русскоязычные семьи.
Голосовое мошенничество не исчезнет. Инструменты дешевеют месяц за месяцем, модели становятся точнее с каждой версией, а мошенники учатся быстрее систем защиты. Но единственное слабое звено в этой цепи — не техника, а люди на том конце провода. Искусственный интеллект способен скопировать ваш голос, но не способен узнать секрет, о котором вы договорились в гостиной.
Возьмите инициативу на этой неделе. Один разговор с семьёй, небольшая правка в настройках приватности и соглашение с самим собой: любая просьба о деньгах по голосу проходит проверку — эти три шага защитят вас сильнее, чем любая платная программа. Перед искусственным интеллектом, который не прекращает учиться, нашей последней защитой остаётся коллективный человеческий разум.
Чтобы глубже понять, как мошенники проникают через другие каналы, прочитайте наш материал о кибератаках с использованием искусственного интеллекта — там разобрана вся экосистема угрозы.
؟Что делать, если я сказал «да» мошеннику в звонке?
Одно слово «да» не даёт мошеннику юридического права снимать деньги, но это пригодный голосовой образец. Сразу положите трубку, не отвечайте этому звонящему, наблюдайте за банковскими счетами 48 часов и не подтверждайте ни одну операцию, которую не инициировали сами. Если потом вам позвонит «банк», перезвоните по официальному номеру с карты для проверки.
؟Может ли ИИ подделать мой голос по короткому ролику в TikTok?
Да, и пугающе легко. Моделям 2025 года нужно всего 3 секунды чистого звука, чтобы создать убедительную копию. Ролик в TikTok длиной 15 секунд содержит 3–5 пригодных сэмплов. Если ваш аккаунт открытый, ваш голос фактически доступен любому желающему. Решение: сделать аккаунт приватным или создавать контент без голоса, с текстовыми титрами.
؟В чём разница между голосовым deepfake и видеоdeepfake?
Голосовой deepfake воспроизводит только тембр и манеру речи по коротким сэмплам и встречается в мошеннических звонках. Видеоdeepfake накладывает лицо жертвы на чужое тело и требует более длинных образцов и высокой вычислительной мощности. Голосовой опаснее в повседневной жизни, потому что дешевле и быстрее, а видео применяют в крупных атаках вроде взлома Arup. Оба бьют по одному и тому же человеческому доверию.
؟Могут ли банки распознать поддельный голос?
Некоторые да, но медленно. Pindrop и другие компании голосовой безопасности разработали системы, определяющие подделку с точностью 99% по их отчётам за 2024 год, но в банках СНГ их применение ограничено. Крупные банки России и Казахстана уже начали отказываться от голосовой аутентификации как единственного фактора и переходят на OTP в сочетании со вторым паролем для крупных переводов. Не полагайтесь только на то, что банк всё заметит.
؟Что означает термин «синтетические медиа» в кибербезопасности?
Синтетические медиа (Synthetic Media) — это общий термин для любого контента, созданного ИИ: голоса, изображения, видео, текста, — который используется для подмены реальной личности. В кибербезопасности это самый быстрорастущий вектор атак с 2022 года, особенно в атаках социальной инженерии. Защита от него требует человеческих процедур (кодовое слово, проверка по нескольким каналам), потому что одних технических систем недостаточно.
؟Как научить пожилых родителей остерегаться поддельных звонков?
Начните с наглядного примера: включите им ролик с клонированием голоса на YouTube, а потом объясните, что любой звонок с просьбой о деньгах — даже якобы вашим голосом — должен пройти через семейное кодовое слово. Договоритесь о правиле: «никаких переводов, пока вы не позвоните мне на сохранённый номер». Напишите правило крупным шрифтом и прикрепите рядом с телефоном. Еженедельное повторение в течение месяца закрепит привычку.
؟Надёжны ли приложения для распознавания голосовых deepfake?
Надёжность у них очень разная. Такие решения, как Pindrop Pulse и Reality Defender, работают точно, но доступны только корпоративным клиентам. Бесплатные приложения в Google Play дают непоследовательные результаты, а многие из них — откровенный маркетинг. Практическое правило: не полагайтесь только на техническую утилиту. Семейное кодовое слово и проверка по второму каналу сейчас сильнее любой программы распознавания голоса.
؟Какие громкие случаи голосового мошенничества с ИИ уже известны?
Четыре самых заметных: мошенничество в Arup в Гонконге 2024 года на 25 миллионов долларов через групповой видеоdeepfake, инсценированное похищение дочери Дженнифер Дестефано в 2023-м с клонированным голосом, взлом банка в ОАЭ в 2020 году на 35 миллионов долларов через поддельный звонок «гендиректора» и мошенничество против британской энергокомпании в 2019 году на 243 тысячи долларов (первый задокументированный случай). Общий знаменатель: одна жертва, один убедительный голос и решающие минуты.
Источники и ссылки
- CNN — Финансовый сотрудник выплатил $25 миллионов после deepfake-видеозвонка с поддельным CFO
- CBS News — Мошенники используют ИИ для имитации голосов близких в беде
- Годовой отчёт FBI Internet Crime Complaint Center (IC3) за 2024 год
- Pindrop 2024 — Отчёт по голосовой аналитике и безопасности
- Forbes — Голосовой deepfake использовали, чтобы выманить у CEO $243 000
Похожие статьи

Как хакеры используют ИИ в кибератаках — и как защититься
Узнайте, как хакеры применяют ИИ для фишинга, дипфейков и взлома паролей, а также 5 практических способов защиты от этих угроз.

Фишинг в 2026: 7 признаков обмана и полный гайд по защите
Фишинг простыми словами: 8 типов атак 2026 года, 7 признаков мошеннического письма и бесплатный пошаговый гайд по защите аккаунтов для начинающих.

Ваш WhatsApp взломан? 5 опасных признаков и 7 шагов для защиты
Узнайте 5 признаков взлома WhatsApp и 7 шагов для немедленной защиты аккаунта. Практические решения против фишинга, шпионских программ и кражи — действуйте сейчас
