Представлена модель для обеспечения кибербезопасности ИИ
Эксперты в области кибербезопасности разработали первую в России комплексную модель угроз для систем искусственного интеллекта (ИИ), которая охватывает все основные этапы жизненного цикла AI-систем — от подготовки данных и разработки нейросетевых моделей до интеграции в приложения.
Исследование описывает 70 угроз, связанных с использованием модели генеративного (GenAI) и предиктивного (PredAI) искусственного интеллекта. Для каждой из этих угроз, помимо возможных последствий, определены свойства информации, которые могут быть нарушены (конфиденциальность, целостность и т.д.), и объект, который может быть подвергнут воздействию нарушителя, например, данные для обучения или open-source модели. Для наглядности модель угроз содержит схему взаимодействия таких объектов и их описание.
«Внедрение технологий искусственного интеллекта в бизнес-процессы компаний неизменно сопровождается вызовами кибербезопасности. Организации, использующие AI, сталкиваются с новыми рисками, способными повлиять на устойчивость систем и конфиденциальность данных. Эти угрозы затрагивают все этапы жизненного цикла AI, что требует новых решений для их прогнозирования и нейтрализации. Сбер активно применяет технологии искусственного интеллекта в своих бизнес-процессах и хорошо понимает новый ландшафт угроз. Для ответа на эти вызовы мы разработали первую в России модель киберугроз, охватывающую полный спектр рисков для искусственного интеллекта, связанных с разработкой и применением. Документ позволяет организациям любой отрасли — от финансового сектора до государственных институтов и промышленности — системно оценивать уязвимости, адаптировать защитные механизмы и минимизировать потенциальные потери», — сказал вице-президент Сбер по кибербезопасности.