Американские законодатели активно ищут пути для контроля над стремительным развитием технологий искусственного интеллекта. Несмотря на широкий общественный резонанс, вызванный появлением таких систем, как ChatGPT, консенсус по вопросам регулирования до сих пор не достигнут, сообщает Reuters. Дебаты в Конгрессе продолжаются, но единого подхода пока нет.

1. Ключевые направления дебатов
В центре дискуссии — вопрос о том, как и где ограничивать применение ИИ. Часть законодателей предлагает сфокусироваться на сферах, где ошибка алгоритма может напрямую угрожать жизни или благосостоянию граждан. Речь идёт о медицине, финансовых услугах и других критически важных областях. Другие настаивают на создании правил, которые предотвратят использование ИИ для дискриминации или ущемления гражданских прав. Отдельный спорный момент — кого именно регулировать: разработчиков технологий или компании, которые внедряют их для работы с клиентами.
2. Позиция бизнеса и риск-ориентированный подход
Многие представители технологического сектора, включая компанию IBM и Торговую палату США, выступают за так называемый риск-ориентированный подход. Они считают, что жёсткому контролю должны подвергаться только приложения ИИ в высокорисковых сферах, например, при постановке медицинских диагнозов. По их мнению, это разумнее, чем вводить всеобъемлющие ограничения. Джордан Креншоу из Торговой палаты подчёркивает, что влияние ИИ на здоровье и экономику требует гораздо большего внимания, чем, к примеру, его использование в рекламе.
3. Опасения, вызванные генеративным ИИ
Распространение генеративного искусственного интеллекта, способного создавать новый контент — тексты, изображения, — обострило общественные опасения. Эксперты предупреждают о рисках, связанных с распространением дезинформации, возможностью мошенничества и проблемами в образовании, когда студенты могут использовать ИИ для выполнения работ. Способность ChatGPT генерировать правдоподобные человеческие тексты лишь подтверждает эти риски.
4. Встречи в Белом доме и позиция индустрии
Несмотря на встречи руководства OpenAI, Microsoft и Alphabet с администрацией президента Байдена, конкретных решений на федеральном уровне пока не принято. Конгрессу приходится фактически с нуля создавать правовое поле для новой индустрии. Джек Кларк, соучредитель Anthropic, отмечает, что законодатели проявляют бдительность и стремятся разобраться в теме, возможно, опасаясь повторить ошибки с запоздалым регулированием социальных сетей. С другой стороны, как отмечает Адам Ковачевич из Палаты прогресса, крупные технологические компании опасаются излишне жёсткой и поспешной реакции государства, которая может затормозить инновации.
5. Политические вызовы и законодательные инициативы
Хотя такие сенаторы, как демократ Чак Шумер, полны решимости заняться регулированием ИИ, Конгресс сильно загружен другими вопросами — от повышения потолка госдолга до подготовки к президентским выборам. Тем не менее, Шумер предложил план, включающий независимое тестирование новых ИИ-технологий перед их выходом на рынок, а также требования к прозрачности и предоставлению данных регуляторам для оценки потенциальных угроз.
Обратите внимание: Стало известно,когда выйдет новая часть Гарри Поттера..
6. Альтернативные подходы: от оценки рисков до защиты ценностей
Риск-ориентированный подход, который поддерживает бизнес, предполагает разную степень регулирования в зависимости от сферы применения. Например, медицинские ИИ-системы могли бы проверяться FDA, а развлекательные — оставаться без контроля. Подобный путь рассматривает и Европейский Союз. Однако у этого подхода есть критики. Сенатор-демократ Майкл Беннетт выступил с инициативой о создании правительственной целевой группы по ИИ. Он и его команда считают, что фокус только на рисках не решает фундаментальных проблем, связанных с приватностью и гражданскими свободами. Они предлагают «ценностно-ориентированный» подход, который ставил бы во главу угла защиту прав человека.
7. Предложения от самих разработчиков
Идеи о регулировании звучат и внутри самой ИИ-индустрии. Исследователь OpenAI Каллен О'Киф предложил создать специальное агентство — Управление безопасности и инфраструктуры искусственного интеллекта, которое выдавало бы лицензии на разработку мощных моделей ИИ и эксплуатацию дата-центров. Технический директор OpenAI Мира Мурати поддержала идею надзорного органа, который мог бы привлекать компании к ответственности, но подчеркнула, что первостепенная задача — чётко определить сами нормы безопасности и риски.
8. Политические препятствия
Создание нового регулятора — сложная задача. Последним подобным органом в США стало Бюро финансовой защиты потребителей, созданное после кризиса 2008 года. Сегодня же многие республиканцы скептически относятся к идее государственного регулирования ИИ. Как отметил анонимный источник в партии, существует опасение, что подобные инициативы могут превратиться в излишнее государственное вмешательство в работу алгоритмов и поисковых систем.
Больше интересных статей здесь: Новости.