Експерт пояснив, як Кремль тестує ШІ для маніпуляцій на Заході
Експерт з кібербезпеки Сергій Демедюк заявив, що Кремль вже використовує штучний інтелект для впливу на електорат країн-союзників України. За його словами, поєднання інформаційних операцій з точковими ударами по кіберзахисту створює новий рівень загроз для демократій. Якщо уряди не навчаться випереджати такі кампанії, під ударом опиняться не лише результати виборів, а й довіра до самої процедури голосування.
Про це пише генерал поліції 3-го рангу, експерт з кібербезпеки та кібероборони Сергій Демедюк у колонці для Новини.LIVE.
РФ тестує інформаційні атаки на союзниках України
Раніше кампанії впливу будувалися на бот-мережах, фабриках тролів та примітивних фейках. Сьогодні алгоритми вміють симулювати цілі групи виборців, моделювати їхні страхи, економічні тривоги, ставлення до війни й санкцій. На основі цих моделей формуються тисячі варіантів повідомлень, які підлаштовуються під конкретні аудиторії майже миттєво.
Такі системи працюють не за принципом грубої пропаганди. Вони створюють ілюзію "свого голосу" в локальній спільноті, у професійному середовищі або в невеликій групі друзів. Кожен отримує "свою" історію про втому від війни, корупцію, безсенсовність підтримки України або нібито вигідну "угоду з агресором". У результаті підривається не тільки підтримка нашої держави, а й саме відчуття спільного інтересу всередині демократичних суспільств.
Найнебезпечніший аспект у тому, що відповіддю на такі атаки часто стає спокуса запровадити надзвичайні, напіввоєнні режими регулювання інформації. Це створює ризик, коли демократичні уряди починають ламати власні правила заради безпеки, а агресор використовує ці ж обмеження як аргумент проти них, розкручуючи наративи про "цензуру" та "узурпацію влади".
Deepfake і атаки на довіру до лідерів
Якість підроблених відео та аудіо вже перетнула поріг, за яким пересічний глядач не може відрізнити монтаж від справжнього звернення. У кризовий момент достатньо кількох хвилин для поширення "заяви" президента, прем’єр-міністра чи військового командувача, де звучить начебто готовність до капітуляції, сварка із союзниками або різка зміна позиції щодо фронту.
Подібні сюжети можуть стати тригером для паніки, ринкових коливань або масових протестів. Навіть швидке спростування не повертає довіру повністю. Чим частіше суспільство стикається з підробками, тим легше посіяти думку, що "ніхто не говорить правду", а будь-яке офіційне звернення можна поставити під сумнів. Це і є стратегічна мета агресора.
Фішинг на стероїдах і удари по критичній інфраструктурі
Цільові фішингові атаки змінюються так само стрімко, як і відкриті кампанії в соцмережах. Листи, згенеровані алгоритмами, дедалі краще копіюють стиль конкретних керівників, використовуючи попередні листування, публічні виступи та навіть мовні звички. Повідомлення адресують людям, які мають доступ до чутливих систем або керують важливими процесами.
Як пояснив Сергій Демедюк, у такий спосіб противник прагне отримати контроль над елементами виборчої інфраструктури, державними реєстрами, енергетикою, транспортом, оборонними підприємствами. Час для атаки обирається не випадково. Пік активності припадає на періоди політичної турбулентності, коли увага керівництва перевантажена, а суспільство захоплене передвиборчою боротьбою.
Що мають зробити держава та суспільство вже сьогодні
- Створити дієвий національний центр протидії інформаційним операціям зі складовою аналізу ШІ-загроз. Такий центр повинен об’єднувати державні органи, спецслужби, приватний сектор і наукову спільноту, працювати з даними в режимі близькому до реального часу та мати повноваження ініціювати контрдії.
- Запровадити цифрову верифікацію контенту та підтримати міжнародні стандарти маркування штучно згенерованих матеріалів. Платформи мають отримати технічні й правові механізми для швидкої ідентифікації підроблених звернень лідерів, особливо під час кризових подій.
- Вбудувати критичне мислення, цифрову гігієну та базові навички кібербезпеки в обов’язкові програми для держслужбовців, освітніх закладів, медіа. Люди, які ухвалюють рішення, повинні вміти розпізнавати маніпулятивні наративи, deepfake та елементи соціальної інженерії.
- Перейти до підходу Zero Trust для державних органів і ключових галузей, запровадити системи виявлення аномалій на основі алгоритмів. Захист має будуватися виходячи з припущення, що компрометація вже можлива, а відновлення після інциденту не менш важливе, ніж власне запобігання.
- Закріпити на законодавчому рівні регулярно проведені стрес-тести та роботу незалежних "червоних команд" для критичної інфраструктури й виборчих процесів. Такі імітаційні атаки дозволяють виявляти слабкі місця до того, як ними скористається справжній противник.
Гібридні вибори як нова реальність
Європа входить у період найвищої політичної фрагментації за десятиліття. Сполучені Штати готуються до рішень, від яких залежить архітектура безпеки для всього демократичного світу. У цих умовах агресор цілеспрямовано б’є по тріщинах: посилює недовіру, використовує соціальну нерівність, роздмухує внутрішні конфлікти та експлуатує свободу слова як прикриття для деструктивних кампаній. Довгострокова мета таких дій — закріпити в суспільстві власний набір інформаційних інструментів, який у будь-який момент дозволяє непомітно втручатися в колективну волю і створювати потрібні коливання настроїв.
Штучний інтелект не породжує абсолютно нові загрози, проте різко масштабує старі методи. Україна накопичила унікальний досвід протидії кібератакам, психологічному тиску й інформаційним операціям. Цей досвід варто перетворити на системну політику — як усередині країни, так і в партнерстві з державами, що готуються до складних виборів.
"Наше завдання — не опинитися в ролі тих, хто постійно надолужує події. Вибори майбутніх років будуть гібридними за замовчуванням. На кону стоїть уже не тільки результат голосування, а й довіра до самої процедури, легітимність інститутів та здатність демократичних суспільств тримати курс на підтримку України попри будь-які інформаційні бурі", — додав експерт.
Нагадаємо, що посол України в Європейському Союзі Всеволод Ченцов заявив, що Росія почала використовувати штучний інтелект у своїх ударних дронах Shahed. Це значно ускладнює їх глушіння засобами радіоелектронної боротьби (РЕБ).
Дрони Служби безпеки України підірвали склад боєприпасів в Ростовській області, який був розташований на полігоні "Кадамовський".
Читайте Новини.LIVE!