RU/EN
RU/EN

Подробное описание документа

   Статья

Арустамян А. Б., Цирлов В. Л., Шишкин И. И.
   Методы защиты моделей машинного обучения от атак отравления данных через обнаружение аномалий / Арустамян А. Б., Цирлов В. Л., Шишкин И. И. // Русский инженер : сборник тезисов 2-го Всероссийского конгресса с международным участием, Москва, 30 октября - 1 ноября 2024 года / МГТУ им. Н. Э. Баумана (национальный исследовательский университет) ; вступ. сл. Гордин М. В. - М., 2024. - С. 23-24.

Модели машинного обучения являются ключевым элементом в критических системах, что делает их уязвимыми к атакам, таким как отравление данных. В статье рассматриваются методы защиты от подобных атак, в том числе фильтрация аномалий с использованием алгоритма Isolation Forest. Проведенные исследования показали, что данный метод эффективно выявляет и устраняет искаженные данные, что помогает восстановить точность и надежность модели

004.056 Безопасность, защищенность данных

Статья опубликована в следующих изданиях

с. 23-24
   Русский инженер : сборник тезисов 2-го Всероссийского конгресса с международным участием, Москва, 30 октября - 1 ноября 2024 года / МГТУ им. Н. Э. Баумана (национальный исследовательский университет) ; вступ. сл. Гордин М. В. - М. : Изд-во МГТУ им. Н. Э. Баумана, 2024. - 401 с. : ил. - Библиогр. в конце статей. - ISBN 978-5-7038-6447-0.