Подходы к праву на «оспаривание решений» искусственного интеллекта на международном и национальном уровнях
Аннотация
Статья посвящена проблеме «права на оспаривание» решений, принятых искусственным интеллектом (далее — ИИ). Автор рассматривает подходы к «праву на оспаривание», предусмотренные как на международном, так и на национальном уровне. Первопроходцем среди регуляторов в данной сфере стал Европейский союз, который признал соответствующее право в Регламенте защиты персональных данных (GDPR), в то время как Совет Европы обязал государства-члены принять на национальном уровне меры для обеспечения граждан эффективными инструментами оспаривания решений, принятых ИИ. В статье также рассмотрены подходы к решению проблемы «права на оспаривание», принятые в ряде государств, не являющихся членами ЕС. Так, в России и Китае, где действуют продвигаемые государством стратегии обеспечения технологического суверенитета систем искусственного интеллекта, отсутствуют четкие механизмы оспаривания решений, в то время как подходы Бразилии и Великобритании (до Brexit) к «праву на оспаривание» решений разрабатывались с учетом тренда в области регулирования ИИ, заданного Европейским союзом. В статье также освещены проблемы, с которыми сталкиваются США ввиду фрагментарности регулирования ИИ, поскольку на настоящий момент федеральное регулирование фактически противоречит подходам наиболее прогрессивных штатов, таких как Колорадо и Нью-Йорк.
Скачивания
Литература
Кутейников, Д. Л., Ижаев О. А., Зенин, С. С., Лебедев, В. А. (2022). Ключевые подходы к правовому регулированию использования систем искусственного интеллекта. Вестник Тюменского государственного университета. Социально-экономические и правовые исследования, 8(1), 209–232. = Kuteynikov, D. L., Izhaev, O. A., Zenin, S. S., & Lebedev, V. A. (2022). Key approaches to the legal regulation of artificial intelligence. Vestnik Tyumenskogo Gosudarstvennogo Universiteta. Sotsial’no-Ekonomicheskie i Pravovye Issledovaniya, 8(1), 209–232.
Arcesati, R. (2021). Lofty principles, conflicting incentives: AI ethics and governance in China. MERICS.
Belli, L., Gaspar, W., & Curzi, Y. (2022). AI regulation in Brazil: advancements, flaws, and the need to learn from the data protection experience. Computer Law & Security Review, 48 (Special Issue: Artificial Intelligence and Data Protection in Latin America). https://doi.org/10.1016/j.clsr.2022.105767
Drake, A., Keller, P., Pietropaoli, I., Puri, A., Maniatis, S., Tomlinson, J., Maxwell, J., Fussey, P., Pagliari, C., Smethurst, H., Edwards, L., & Blair, S. W. (2021). Legal contestation of artificial intelligence-related decision-making in the United Kingdom: reflections for policy. International Review of Law, Computers & Technology, 36(2), 251–285. https://doi.org/10.1080/13600869.2021.1999075
Falletti, E. (2024). Credit scoring under scrutiny by the Court of Justice of the European Union: brief remarks on the “schufa decision.” SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4726282
Fjeld, J., Achten, N., Hilligoss, H., Nagy, A., & Srikumar, M. (2020). Principled artificial intelligence: Mapping consensus in ethical and rights-based approaches to principles for AI. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3518482
Filipova, I. A. (2024). Legal regulation of artificial intelligence: Experience of China. Journal of Digital Technologies and Law, 2(1), 46–73. https://doi.org/10.21202/jdtl.2024.4
Gaspar, W., & Curzi, Y. (2021). Report: Artificial Intelligence in Brazil Still Lacks a Strategy. Center for Technology and Society at FGV Law School.
Kaminski, M. E., & Urban J. M. (2021). The right to contest AI. Columbia Law Review, 121(7), 1957–2048.
Morandín-Ahuerma, F. (2023). Diez recomendaciones de la Unesco sobre ética de la inteligencia artificial. Consejo de Ciencia y Tecnología del Estado de Puebla.
Noguera, A. M. (2024). Case C-634/21, OQ V. Land Hessen (C.J.E.U.). International Legal Materials, 63(5), 946–961. https://doi.org/10.1017/ilm.2024.23
Ploug, T., & Holm, S. (2021). The Right to Contest AI Profiling Based on Social Media Data. The American Journal of Bioethics, 21(7), 21–23. https://doi.org/10.1080/15265161.2021.1926585
Puri, A. (2020). Moral imitation: can an algorithm really be ethical? Rutgers Law Record, 48(1), 47–57.
Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2020). The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation. AI & Society, 36(1), 59–77. https://doi.org/10.1007/s00146-020-00992-2
Szczepański, M. (2024). United States approach to artificial intelligence. European Parliamentary Research Service, PE 757.605
Wu, F., Lu, C., Zhu, M., Chen, H., Zhu, J., Yu, K., Li, L., Li, M., Chen, Q., Li, X., Cao, X., Wang, Z., Zha, Z., Zhuang, Y., & Pan, Y. (2020). Towards a new generation of artificial intelligence in China. Nature Machine Intelligence, 2(6), 312–316. https://doi.org/10.1038/s42256-020-0183-4
Wu, W., Huang, T., & Gong, K. (2020). Ethical principles and governance technology development of AI in China. Engineering, 6(3), 302–309. https://doi.org/10.1016/j.eng.2019.12.015
Yeung, K. (2019). AI and the Law. University of Birmingham.
Yeung, K. (2020). Recommendation of the Council on Artificial Intelligence (OECD). International Legal Materials, 59(1), 27–34. https://doi.org/10.1017/ilm.2020.5
Это произведение доступно на условиях CC BY-NC-ND 4.0