Когда мы говорим об этике ИИ, то имеем в виду, конечно, не сами машины, а их создателей и пользователей, то есть об этике проектирования, конструирования и использования сложных программных алгоритмов, исключающих негативные последствия их использования пользу для человека, общества и государства
Нужен новый подход к созданию и использованию современных мощных программных комплексов с элементами ИИ. Она должна основываться на тщательном анализе этических рисков и учете интересов всех заинтересованных сторон
Дайте человеку то, что есть человек, а компьютеру, что есть машина
Винер Н. "Творец и будущее».
Этика искусственного интеллекта (ИИ) считается одной из самых важных и актуальных проблем, стоящих сегодня перед нашим обществом. Одно определение рассматривает этику ИИ как часть этики технологий, характерную для роботов и других «существ» с искусственным интеллектом. Вопрос этики обычно делится на два аспекта:
- этика создателей, решающая вопросы нравственного поведения людей при проектировании, конструировании, использовании искусственно разумных существ;
- этика машин, в которой рассматриваются проблемы морального поведения самих искусственных моральных агентов.
Второй аспект вызывает наибольшее количество опасений и вопросов в обществе. Важно отметить, что в настоящее время распространено следующее заблуждение: искусственный интеллект — это любая компьютерная программа, способная в той или иной степени заменить любую мыслительную деятельность человека, даже если она не имеет ничего общего с интеллектом как таковым. До создания полноценного ИИ технология еще не развивалась. Для этого необходимо, как минимум, полностью изучить процессы головного мозга — разобрать человеческий разум по кирпичикам. А это не под силу современной науке.
Что касается официальной формулировки, то ситуация в России на сегодняшний день такова: согласно федеральному закону «О проведении эксперимента по установлению специального регламента создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации...» (№ 123-ФЗ от 24.04.2020), ИИ — это «совокупность технологических решений, позволяющих имитировать когнитивные функции человека (в том числе самообучение и поиск решений без заранее заданного алгоритма) и достигать результатов при выполнение конкретных задач, как минимум сравнимых с результатами интеллектуальной деятельности человека».
Надо отдать должное нашим законодателям и поблагодарить их за адекватные формулировки: «подражать» и «сопоставлять». Они отражают реальное состояние развития ИИ. Подавляющее большинство граждан воспринимают современные сложные программные комплексы с элементами ИИ как «копирующие» психические функции человека, как «похожие» на человеческий разум.
Однако, к сожалению, ни одна из статей вышеупомянутого закона не затрагивает не только вопросов, связанных с этическими принципами функционирования ИИ, но и аналогичных вопросов в области создания и использования сложных программных комплексов, «достигающих результатов при выполнении конкретных задач, которые по крайней мере сопоставимы с результатами интеллектуальной деятельности человека».
Еще раз: употребляя эффектное выражение «искусственный интеллект», надо понимать, что сегодня речь идет не о полноценном аналоге человеческого интеллекта, а о сложных, эффективных, самообучающихся, но тем не менее компьютерных программах. Это означает, что этика истинного искусственного интеллекта все еще находится в стороне. Это вопрос будущего, который ученые, философы и фантасты могут рассматривать лишь гипотетически.
Пока не будет создан ИИ, что называется «во плоти», мы не можем толком оценить его хорошие или плохие стороны. Можно даже предположить, что новое творение человеческого гения будет обладателем столь неуловимой материи, как душа. Современные программные средства, хотя и очень эффективные, никогда не смогут обладать душой. Это даже не гуманоидный манекен, а пародии на детали. А где нет души, там нет и этики. Где нет этики, там нет места человеку. И именно эта грань духовно-технократического конфликта является сегодня одной из важнейших проблем человечества. Отсутствие настоящего искусственного интеллекта не освобождает нас от проблем, связанных с программными инструментами, которые пытаются частично выполнять свои функции.
Из вышеизложенного следует, что актуальным аспектом этики ИИ является не этика самих машин, а этика их создателей и пользователей, то есть этика проектирования, конструирования и использования сложных программных алгоритмов, исключающая негативные последствия их использование для личности, общества и государства. И правильнее было бы назвать это этикой «проектирования и использования программных систем, имитирующих человеческий разум». Но для простоты восприятия пусть останется «этика использования элементов ИИ».
Давайте рассмотрим некоторые из наиболее очевидных вопросов, связанных с этикой использования элементов ИИ.
1. Безопасен ли ИИ
Проблема безопасности. Многие эксперты считают, что алгоритмы некоторых программ могут представлять угрозу для человечества, если станут слишком умными и будут действовать против наших интересов. Это может произойти, например, если алгоритм вырабатывает собственные цели и стремится к их достижению, игнорируя интересы людей. Россия уже начала делать первые шаги по урегулированию вопросов безопасности при использовании элементов ИИ. Так, согласно «Национальной стратегии развития искусственного интеллекта на период до 2030 года», утвержденной Постановлением Президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», является основным принципом развития и использования технологий безопасности ИИ, под которым понимается следующее: «недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предотвращения и минимизации рисков негативных последствий использования ИИ-технологий».
Еще один важный аспект этики использования элементов ИИ связан с проблемой автономии. Современные робототехнические комплексы уже способны работать без участия человека, а это может привести к непредсказуемым последствиям. Например, если автономный транспортный дрон во время движения по маршруту примет решение, не соответствующее реальной ситуации на маршруте, это может привести к серьезным последствиям, в том числе к гибели людей.
Также могут быть ситуации, когда программа ИИ принимает решения на основе статистических данных, изначально содержащих ошибки или предубеждения, что может привести к несправедливым решениям, дискриминирующим определенные группы людей. Это серьезная проблема и она требует особого внимания и разработки механизмов, в том числе законодательных, позволяющих выявлять и исправлять такие ошибки.
Не менее важны этические вопросы, связанные с использованием элементов ИИ в критически важных для бизнеса отраслях, таких как медицина. Сложные программные системы могут использоваться для диагностики и лечения пациентов, что может привести к улучшению здравоохранения. Однако это потенциально может вызвать этические вопросы, например, если элемент ИИ используется для принятия решений о том, какое лечение необходимо пациенту, без учета его личных предпочтений и ценностей.
Еще одна важная тема этики использования элементов ИИ связана с вопросом прозрачности. Многие программные системы используют массивные и сложные алгоритмы, логика которых непонятна обычным людям. Это может создать проблемы в том, что люди не смогут объяснить, почему система приняла то или иное решение, породит недоверие к использованию элементов ИИ и неприятие их в обществе.
Следующей важной темой, связанной с этикой использования элементов ИИ, является вопрос ответственности. Кто несет ответственность за действия системы принятия решений, если она причинила вред? Необходимо разработать механизмы, которые будут четко разграничивать ответственность за негативные действия и при необходимости обеспечивать компенсацию пострадавшим.
Важно тестировать программные системы ИИ на предмет потенциальных этических проблем и предотвращать их до того, как элементы ИИ будут запущены в производство. Также необходимо научить разработчиков этическим принципам, чтобы они могли распознавать и минимизировать риски
2. Концепция этической архитектуры
Для решения всех этих проблем необходимо разработать принципиально новый подход к созданию и использованию современных мощных программных комплексов с элементами ИИ.
Обратите внимание: Выход Прибалтики из энергокольца БРЭЛЛ обернется неприятными последствиями.
Этот подход должен основываться на тщательном анализе потенциальных этических рисков и учете интересов всех заинтересованных сторон. Кроме того, необходимо разработать этические стандарты и регуляторные механизмы, которые обеспечат соблюдение этих стандартов в различных аспектах искусственного интеллекта: сборе данных, базе данных, пределах самостоятельных решений, прозрачности и контролируемости результатов применения и т д.Примером таких стандартов является концепция «этической архитектуры» для систем искусственного интеллекта. Эта концепция предполагает использование этических принципов уже в процессе проектирования программных систем для минимизации рисков, связанных с их использованием. Например, этическая архитектура может включать использование принципа «безопасность по умолчанию», который предполагает, что система ИИ должна быть максимально безопасной для человека.
Другой пример — разработка этических рекомендаций для исследователей искусственного интеллекта. Такой кодекс мог бы включать принципы, направленные на защиту прав и интересов пользователей систем с элементами ИИ, а также требования прозрачности и подотчетности действий таких систем.
Однако все мы взрослые люди и прекрасно понимаем, в какой агрессивной конкурентной среде мы сегодня живем. Никакие концепции, принципы и кодексы не остановят ученых, исследователей, программистов крупных компаний, если на горизонте появится возможность добиться непреодолимого конкурентного преимущества. И здесь без вмешательства государства не обойтись. Регулирование этики при использовании элементов ИИ является в первую очередь государственной функцией.
Для решения этических проблем необходимы меры со стороны властей. Например, законодательство должно требовать от компаний ИИ прозрачности и открытости, чтобы пользователи могли понять, как работает система и какие данные она собирает о пользователе. Законодательство также может требовать от компаний защиты персональных данных и принятия мер по предотвращению дискриминации при использовании элементов ИИ.
Кроме того, важно разработать и применить методы тестирования и оценки программных систем с элементами ИИ, чтобы выявить этические проблемы и риски и предотвратить их до того, как элементы ИИ будут введены в эксплуатацию. Также важно обучать разработчиков и пользователей этическим принципам, чтобы они могли распознавать и минимизировать риски.
Но даже если будут приняты все необходимые меры для обеспечения этичности и безопасности использования элементов ИИ, этические вопросы останутся актуальными и потребуют дальнейшего обсуждения и разработки.
В связи с этим возникает идея создания специальных государственных органов или комиссий, которые будут заниматься этическими вопросами при разработке сложных программных комплексов с элементами искусственного интеллекта и ответственностью за свои действия.
Важно также учитывать международный аспект проблемы. Поскольку современное программное обеспечение ИИ может стать ключевой технологией для многих стран, необходимо разработать международные стандарты и нормы, которые обеспечат безопасное и этичное использование во всем мире. Международные организации, такие как ООН или ШОС, могут стать площадками для разработки и внедрения таких международных стандартов и норм.
Проблема использования элементов ИИ в военном деле становится все острее. Современные военные конфликты уже доказали, что использование даже самых простых программных средств значительно повышает эффективность на поле боя. Нетрудно представить, что будет, когда в руки «плохих парней» попадет неудержимая военная сила, основанная на использовании элементов ИИ. А учитывая нынешнее геополитическое противостояние Востока и Запада, военные риски, связанные с применением программных комплексов с элементами ИИ, многократно возрастают.
Недружественные нам страны делают упор на постоянное использование передового ИИ в рамках концепции гибридной войны. В предисловии к оборонной стратегии по искусственному интеллекту британского министерства обороны министр Бен Уоллес заявил следующее: «Чтобы справиться с различными вызовами (в контексте вызовов со стороны России. — Авт.), оборона должна отдавать приоритет исследованиям, разработкам и экспериментировать, сохраняя при этом стратегическое преимущество за счет использования инновационных концепций и новаторских технологических достижений, а искусственный интеллект является одной из технологий, необходимых для модернизации обороны».
Британское всеобъемлющее операционное видение делает еще более ужасные заявления: «Глядя в будущее, в следующее десятилетие, мы видим, что сочетание проверенных технологий, таких как повсеместное распространение данных благодаря улучшенному подключению к облачным хранилищам, машинному обучению и искусственному интеллекту, а также квантовые вычисления позволят создать не только новое поколение систем вооружения, но и совершенно новый способ ведения войны».
Как вам такой вариант использования ИИ-элементов предыдущих «партнеров»? Вероятно, в ближайшее время потребуется ограничение использования элементов ИИ в военном деле по аналогии с международными договорами об ограничении распространения ядерного оружия (например, раскрытие кода).
Наряду с военным применением элементов ИИ не менее важно воздействие на социальную среду. Все мы привыкли к ситуации, когда после поиска определенного товара таргетированная реклама сама предоставляет нам подходящие возможности его купить. При желании таким же образом можно подправить даже свою новостную ленту. Что, если это не то, что вы хотите? Что, если «устройство», основанное на статистике исключительно ваших поисковых предпочтений, ваших предпочтений использования тех или иных социальных сетей, ваших контактов, ваших покупок, ваших обычных мест посещения, ваших любимых фильмов, книг и так далее, наконец, индивидуальных психологических особенностей начать "скармливать" вам некий социальный или политический нарратив в удобной оболочке, способный заставить вас совершать определенные действия, выгодные этому "сущности»?
В маркетинге есть такой термин — «омниканальность», который буквально означает «взаимная интеграция разных каналов связи в единую систему для обеспечения бесшовной и непрерывной коммуникации с клиентом». Омниканальность в социальном управлении в сочетании с индивидуальным подходом даст такой синергетический эффект, который и не снился ни одному пропагандисту. Однако такой «комплекс мероприятий» очень сложно организовать только силами людей. Чтобы повлиять на одного человека, нужен целый штат сотрудников, от аналитиков данных до психологов. А чтобы управлять обществом, вы должны воздействовать на массы. Только сложный программный комплекс с элементами ИИ может эффективно справиться с таким массивным «набором событий». Различные «цветные революции» можно устроить буквально «в несколько кликов».
Можно ли отдавать такую мощную силу в руки частных компаний или позволять недружественным странам таким образом влиять на сознание российского общества? Соответствует ли такое применение элементов ИИ этическим нормам современного цивилизованного человека? Ответ очевиден.
Пришло время, когда программные средства достигли такого развития, что стали играть ключевую роль в жизни человека. Что неудивительно: мир стремительно мчится к созреванию пятого технологического уклада и началу формирования шестого. Эти процессы приводят к полной трансформации как экономической деятельности, так и самого человеческого общества. В погоне за технологическим развитием важно не утратить этические ориентиры, которые были достигнуты путем страданий в течение двухсот тысяч лет нашей человеческой истории.
Наконец, стоит отметить, что этические вопросы никогда не будут решены раз и навсегда. Они потребуют постоянного обновления и адаптации в соответствии с технологическими разработками. Решение этих проблем потребует постоянного общения и диалога между различными группами, в том числе разработчиками, экспертами, общественными организациями и, самое главное, государством. Все вместе должны работать над созданием условий, при которых интересы всех членов общества защищены, а безопасность использования технологий с элементами ИИ гарантирована.
Больше интересных статей здесь: Новости.