Европейский Союз готовится принять масштабный законопроект, регулирующий использование технологий искусственного интеллекта. Согласно проекту правил, который стал известен до официальной публикации, в ЕС планируется полностью запретить ряд наиболее спорных практик применения ИИ, включая системы распознавания лиц для массового наблюдения и алгоритмы, манипулирующие человеческим поведением.
1. Какие системы ИИ попадут под запрет
В «чёрный список» предлагается внести технологии, представляющие, по мнению законодателей, неприемлемый риск для общества и прав граждан. К ним относятся:
- Манипулятивные системы: алгоритмы, спроектированные или используемые для влияния на поведение, мнения или решения людей, заставляющие их действовать себе во вред.
- Системы массового наблюдения: технологии неизбирательного слежения, применяемые в обобщённом виде, такие как распознавание лиц в публичных пространствах.
- Социальный скоринг: практика оценки граждан по социальному поведению с помощью ИИ, заимствованная из некоторых зарубежных моделей.
- Эксплуатация уязвимостей: системы, которые используют личные данные, прогнозы или характеристики человека или группы для целенаправленного воздействия на их слабые места.
Однако эксперты, такие как политический аналитик Даниэль Левер, уже отмечают, что формулировки в документе оставляют пространство для интерпретаций. В своём Twitter он задаётся вопросами: «Как точно определить, что кому-то причиняется вред? И кто будет это оценивать?»
Обратите внимание: Европа больше не верит в улучшение отношений с США.
2. Жёсткий контроль для «высокорискового» ИИ
Для систем искусственного интеллекта, отнесённых к категории высокого риска, будут введены особые требования. Государствам-членам ЕС предстоит создать органы по оценке, которые займутся тестированием, сертификацией и инспекцией таких алгоритмов. Это коснётся широкого спектра применений, влияющих на жизнь людей:
- Системы расстановки приоритетов для экстренных служб (например, скорой помощи).
- Алгоритмы, определяющие доступ к образованию или зачисление в учебные заведения.
- Программы для подбора персонала и оценки кандидатов.
- Системы оценки кредитоспособности.
- Инструменты для индивидуальной оценки рисков (например, в соцзащите).
- Алгоритмы прогнозирования преступности, используемые правоохранительными органами.
Даниэль Лефер также призвал распространить строгий контроль на все системы ИИ в государственном секторе, независимо от присвоенного уровня риска. Его аргумент заключается в том, что у граждан часто нет выбора, взаимодействовать ли с такими системами, что делает прозрачность и надзор особенно важными.
3. Требования к безопасности и санкции
Одним из ключевых нововведений станет требование обеспечить человеческий контроль над системами ИИ. Для технологий высокого риска также будет обязательным наличие так называемого «аварийного выключателя» (kill switch) — механизма для немедленного отключения системы в случае необходимости.
За нарушение новых правил, например, за разработку запрещённых сервисов или предоставление неполной информации о них, компаниям грозят серьёзные штрафы — до 4% от глобальной выручки. Эта мера аналогична санкциям по Общему регламенту защиты данных (GDPR), что подчёркивает серьёзность намерений регуляторов.
Юристы, комментируя инициативу, отмечают, что она потребует фундаментальных изменений в подходах к разработке ИИ. «Поставщики технологий искусственного интеллекта будут чрезвычайно сосредоточены на этих предложениях», — заявил Герберт Сваникер, юрист Clifford Chance.
Больше интересных статей здесь: Новости.
Источник статьи: Европа стремится ограничить использование ИИ в обществе.