Евросоюз вводит жёсткие ограничения на применение искусственного интеллекта

Европейский Союз готовится принять масштабный законопроект, регулирующий использование технологий искусственного интеллекта. Согласно проекту правил, который стал известен до официальной публикации, в ЕС планируется полностью запретить ряд наиболее спорных практик применения ИИ, включая системы распознавания лиц для массового наблюдения и алгоритмы, манипулирующие человеческим поведением.

1. Какие системы ИИ попадут под запрет

В «чёрный список» предлагается внести технологии, представляющие, по мнению законодателей, неприемлемый риск для общества и прав граждан. К ним относятся:

  • Манипулятивные системы: алгоритмы, спроектированные или используемые для влияния на поведение, мнения или решения людей, заставляющие их действовать себе во вред.
  • Системы массового наблюдения: технологии неизбирательного слежения, применяемые в обобщённом виде, такие как распознавание лиц в публичных пространствах.
  • Социальный скоринг: практика оценки граждан по социальному поведению с помощью ИИ, заимствованная из некоторых зарубежных моделей.
  • Эксплуатация уязвимостей: системы, которые используют личные данные, прогнозы или характеристики человека или группы для целенаправленного воздействия на их слабые места.

Однако эксперты, такие как политический аналитик Даниэль Левер, уже отмечают, что формулировки в документе оставляют пространство для интерпретаций. В своём Twitter он задаётся вопросами: «Как точно определить, что кому-то причиняется вред? И кто будет это оценивать?»

Обратите внимание: Европа больше не верит в улучшение отношений с США.

2. Жёсткий контроль для «высокорискового» ИИ

Для систем искусственного интеллекта, отнесённых к категории высокого риска, будут введены особые требования. Государствам-членам ЕС предстоит создать органы по оценке, которые займутся тестированием, сертификацией и инспекцией таких алгоритмов. Это коснётся широкого спектра применений, влияющих на жизнь людей:

  • Системы расстановки приоритетов для экстренных служб (например, скорой помощи).
  • Алгоритмы, определяющие доступ к образованию или зачисление в учебные заведения.
  • Программы для подбора персонала и оценки кандидатов.
  • Системы оценки кредитоспособности.
  • Инструменты для индивидуальной оценки рисков (например, в соцзащите).
  • Алгоритмы прогнозирования преступности, используемые правоохранительными органами.

Даниэль Лефер также призвал распространить строгий контроль на все системы ИИ в государственном секторе, независимо от присвоенного уровня риска. Его аргумент заключается в том, что у граждан часто нет выбора, взаимодействовать ли с такими системами, что делает прозрачность и надзор особенно важными.

3. Требования к безопасности и санкции

Одним из ключевых нововведений станет требование обеспечить человеческий контроль над системами ИИ. Для технологий высокого риска также будет обязательным наличие так называемого «аварийного выключателя» (kill switch) — механизма для немедленного отключения системы в случае необходимости.

За нарушение новых правил, например, за разработку запрещённых сервисов или предоставление неполной информации о них, компаниям грозят серьёзные штрафы — до 4% от глобальной выручки. Эта мера аналогична санкциям по Общему регламенту защиты данных (GDPR), что подчёркивает серьёзность намерений регуляторов.

Юристы, комментируя инициативу, отмечают, что она потребует фундаментальных изменений в подходах к разработке ИИ. «Поставщики технологий искусственного интеллекта будут чрезвычайно сосредоточены на этих предложениях», — заявил Герберт Сваникер, юрист Clifford Chance.

Больше интересных статей здесь: Новости.

Источник статьи: Европа стремится ограничить использование ИИ в обществе.