«ЗАМАСКИРОВАННОЕ НАРУШЕНИЕ АВТОРСКИХ ПРАВ» И АДВЕРСАРИАЛЬНЫЕ АТАКИ НА ОБУЧАЮЩИЕ ДАННЫЕ
Abstract
Развитие генеративного искусственного интеллекта (ИИ) поставило острые юридические вопросы, связанные с использованием охраняемых авторским правом данных при обучении моделей. Обычно под нарушением авторских прав в контексте обучения понимают ситуацию, когда модель получила прямой доступ к защищённому произведению и впоследствии способна создавать выходные данные, существенно похожие на оригинал. Однако новое техническое явление – «замаскированное» (disguised) нарушение – усложняет выявление таких случаев
References
1. Lu Y. et al. Disguised Copyright Infringement of Latent Diffusion Models (ICML 2024)
2. Panaitescu-Liess M.A. et al. PoisonedParrot: Data Poisoning Attacks to Elicit Copyright-Infringing Content from LLMs (NAACL 2025)
3. Dornis T., Stober S. Generative AI Training and Copyright Law (2025)
4. Copyright Lately – Analysis of Bartz v. Anthropic & Kadrey v. Meta decisions (2025)
5. Arxiv.org – Generative AI and TDM exceptions (EU DSM Directive)
6. Grimmelmann J. et al. – On machine unlearning and copyright (2024)
7. News Central Asia – AI development strategies in Central Asia (2025)