Использование распознавания лиц для наблюдения или алгоритмов, которые манипулируют поведением человека, будет запрещено в соответствии с предлагаемыми правилами ЕС об искусственном интеллекте.
Обширные предложения, которые просочились перед их официальной публикацией, также обещали жесткие новые правила для того, что они считают высокорисковым ИИ.
Это включает в себя алгоритмы, используемые полицией и при вербовке.
Эксперты говорили, что правила были расплывчатыми и содержали лазейки.
Использование ИИ в вооруженных силах исключается, как и системы, используемые властями для обеспечения общественной безопасности.
Предлагаемый список запрещенных систем ИИ включает в себя:
- те, которые разработаны или используются таким образом, чтобы манипулировать человеческим поведением, мнениями или решениями ...заставляя человека вести себя, формировать мнение или принимать решение в ущерб себе
- Системы искусственного интеллекта, используемые для неизбирательного наблюдения, применяемые в обобщенном виде
- Системы искусственного интеллекта, используемые для социального скоринга
- те, которые используют информацию или прогнозы и человека или группу людей для того, чтобы нацелить их уязвимости
Европейский политический аналитик Даниэль Левер написал в своем твиттере , что эти определения очень открыты для интерпретации.
- Как определить, что кому-то вредит?
Обратите внимание: Европа больше не верит в улучшение отношений с США.
И кто это оценивает?" он писал.Для ИИ, считающегося высокорисковым, государствам-членам придется применять гораздо больший надзор, включая необходимость назначения оценочных органов для тестирования, сертификации и инспекции этих систем.
А любые компании, которые разрабатывают запрещенные сервисы или не предоставляют правильную информацию о них, могут столкнуться со штрафами в размере до 4% от их глобальной выручки, аналогичными штрафам за нарушения GDPR.
Примеры искусственного интеллекта с высоким риском включают в себя:
- системы, устанавливающие приоритет в диспетчеризации аварийных служб
- системы, определяющие доступ или назначение людей в учебные заведения
- алгоритмы подбора персонала
- те, которые оценивают кредитоспособность
- те, для проведения индивидуальной оценки риска
- алгоритмы прогнозирования преступности
Г-н Лейфер добавил, что эти предложения должны быть "расширены и включать в себя все системы искусственного интеллекта государственного сектора, независимо от назначенного им уровня риска".
"Это происходит потому, что у людей, как правило, нет выбора относительно того, взаимодействовать или нет с системой искусственного интеллекта в государственном секторе."
Кроме того, требуя, чтобы новые системы ИИ имели человеческий контроль, ЕС также предлагает, чтобы системы ИИ высокого риска имели так называемый переключатель kill, который мог бы быть либо кнопкой stop, либо какой-то другой процедурой, чтобы мгновенно отключить систему, если это необходимо.
"Поставщики ИИ будут чрезвычайно сосредоточены на этих предложениях, поскольку это потребует фундаментального изменения в том, как разработан ИИ", - сказал Герберт Сваникер, юрист Clifford Chance.
Больше интересных статей здесь: Новости.
Источник статьи: Европа стремится ограничить использование ИИ в обществе.