Прорыв в защите моделей компьютерного зрения

Специалисты из Центрального университета разработали метод защиты уже обученной модели от несанкционированного использования без необходимости дополнительного обучения.
Ранее не существовало подобных методов. Эксперты из Google, Amazon, Yahoo и многих других компаний высоко оценили этот метод на престижной конференции ICCV 2025.
В нейросеть интегрировали специализированный нейрон-детектор. Этот нейрон не реагирует на обычные изображения, а активизируется исключительно при обнаружении секретного визуального ключа — небольшого паттерна размером 4 на 4 пикселя.
Для защиты от несанкционированного использования модели применяются особые «нейроны-нарушители». Эти элементы блокируют работу системы при отсутствии ключа, предотвращая возможность «пиратского» применения.
По оценкам специалистов, вероятность ложного срабатывания детектора очень низкая и составляет 0,01%. Данная технология универсальна и может быть применена к любым моделям компьютерного зрения.
Специалисты указывают, что данный механизм может послужить основой для формирования нового рынка лицензирования искусственного интеллекта.