Маніпулювання інформацією, що використовується для навчання систем, пропонує практично невідслідковуваний метод обходу захисту на основі штучного інтелекту.

Переглянути вихідне зображення

Протягом останнього десятиліття штучний інтелект використовувався для розпізнавання облич, кредитної оцінки та прогнозування погоди. У той же час почастішали випадки складного злому з використанням більш потайних методів. Поєднання ШІ та кібербезпеки було неминучим, оскільки обидві галузі шукали кращі інструменти та нові способи використання своїх технологій. Але є серйозна проблема, яка загрожує підірвати ці зусилля і може дозволити зловмисникам обійти цифровий захист непоміченим.

Як повідомляє The Washington Post, небезпека полягає в отруєнні даними. Маніпулювання інформацією, що використовується для навчання систем, пропонує практично невідслідковуваний метод обходу захисту на основі штучного інтелекту. Багато компаній можуть бути не готові впоратися зі зростаючими ризиками. Очікується, що до 2028 року глобальний ринок кібербезпеки штучного інтелекту збільшиться втричі до 35 мільярдів доларів, а постачальникам послуг безпеки та їхнім клієнтам, можливо, доведеться об’єднати кілька стратегій для забезпечення належного рівня кібербезпеки.

При величезній кількості даних комп’ютери можна навчити правильно класифікувати інформацію. Такий же підхід використовується і в кібербезпеці. Щоб зловити шкідливе ПРОГРАМНЕ ЗАБЕЗПЕЧЕННЯ, компанії завантажують дані в свої системи і дозволяють штучному інтелекту вчитися самостійно. Комп’ютери, озброєні численними прикладами як хорошого, так і поганого коду, можуть навчитися виявляти шкідливі програми. Системи машинного навчання вимагають величезної кількості правильно маркованих зразків для точного виявлення загроз. Навіть найбільші компанії з інформаційної безпеки можуть лише зіставляти та класифікувати обмежену кількість прикладів шкідливих програм, тому у них немає іншого вибору, окрім як доповнити свої навчальні дані. Деякі дані можуть бути краудсорсинговими.

Ретельно створюючи шкідливий код, позначаючи його зразки як хороші, а потім додаючи їх у великий пакет даних, хакер може обдурити нейронну мережу і передати небезпечний код як нешкідливий. Зловити такі зразки коду практично неможливо. Бекдор-код може повністю обійти захисні механізми, отруюючи менше 0,7% даних, відправлених в систему машинного навчання. Таким чином, система машинного навчання може стати вразливою, навіть якщо вона використовує лише невелику кількість неперевірених даних з відкритим вихідним кодом.

Одним із способів запобігти отруєнню даними є регулярна перевірка точності всіх етикеток в тренувальних даних з вченими, які розробляють моделі ШІ. Наприклад, дослідники OpenAI LLP регулярно передавали дані через спеціальні фільтри, щоб забезпечити точність кожної мітки під час аналізу наборів даних для нового інструменту візуалізації.