Image by Philipp Katzenberger, from Unsplash
Система Искусственного Интеллекта Обещает Умную Защиту От Вредоносных Программ С Защитой Личной Информации
Исследователи разработали новую систему для обнаружения и борьбы с вредоносным ПО с помощью техники, называемой федеративное обучение (FL).
Спешите? Вот краткие факты:
- Использует федеративное обучение для защиты конфиденциальности во время тренировки моделей.
 - Лабораторные тесты показали 96% успеха против основных кибератак.
 - Точность в реальном мире снизилась до 59% при работе со сложными данными.
 
Группа исследователей разработала новый способ выявления компьютерных вирусов и кибератак внутри больших сетей. Они объясняют, что система использует искусственный интеллект и метод, называемый «федеративное обучение», для противодействия угрозам, сохраняя при этом конфиденциальность личных данных.
Идея заключается в сочетании преимуществ современных сетей, которые имеют центральный «управляющий узел», с AI, обучающимся безопасным, децентрализованным способом. Вместо сбора всех пользовательских данных в одном месте, система делится только обновлениями AI модели.
“Наша архитектура минимизирует риски для конфиденциальности, гарантируя, что исходные данные никогда не покидают устройство; обновления модели распространяются только для агрегации на глобальном уровне”, — сказала команда.
В ходе ранних лабораторных испытаний система показала себя очень хорошо. Она блокировала до 96% крупных кибератак, таких как ботнеты и распределенные отказы в обслуживании (DDoS-атаки). Но когда ее проверяли в более реалистичных условиях, точность снижалась до примерно 59%. Исследователи говорят, что это показывает, насколько сложными могут быть реальные киберугрозы.
Тем не менее, система работала быстро, обнаруживая атаки за меньше секунды и помогая сетям восстанавливать скорости от 300 до 500 мегабит в секунду. Она также справлялась с большим объемом данных без замедления всего процесса.
Новый инструмент особенно хорош в выявлении очевидных атак с большим влиянием. Однако он все еще испытывает трудности с более тонкими, например, когда хакеры тайно крадут информацию со временем. Чтобы исправить это, исследователи планируют обучить AI на более качественных данных и улучшить способ, которым он учитывает закономерности. Они также хотят добавить более мощные инструменты конфиденциальности, например, безопасные методы обмена данными.