Этика ИИ: можно ли использовать древнегреческий фундамент для осмысления новейшей технологии

Фото: iStock
Фото: iStock

Быстрое развитие технологий искусственного интеллекта и его отдельных направлений требует детальной разработки этических основ для его работы. ИИ должен облегчить повседневную жизнь человека и при этом не нанести ему физического и морального вреда и не приводить к росту социального неравенства и негативным изменениям в поведении. 

Стремительный рост технологий искусственного интеллекта и расширение их применения в различных сферах повседневной жизни порождает запрос на создание этических правил разработки и использования ИИ. Философы предлагают разные подходы к выработке основ этики. Преподаватель Школы философии и культурологии факультета гуманитарных наук НИУ ВШЭ Валерия Кудряшова рассмотрела этику добродетели Аристотеля в понимании его современных последователей как один из вариантов этики в статье, опубликованной в журнале «Этическая мысль». 

Под этикой добродетели в сфере ИИ понимается набор добродетелей, способный помочь регулировать работу его систем. По мнению Валерии Кудряшовой, предлагаемые варианты этики добродетели для ИИ недостаточно проработаны, поскольку позволяют ее множественные интерпретации, предполагающие смешение философии Аристотеля с воззрениями других мыслителей или суженное понимание этической теории самого Аристотеля, точечное заимствование его идей, не отражающее глубины его учения о морали.

Валерия Кудряшова

Другая проблема в применении этики Аристотеля в сфере ИИ возникает из-за попыток авторов представить систему искусственного интеллекта как морального агента. Такая интерпретация не согласуется со взглядами философа, где моральный агент — субъект, имеющий целью своего существования (telos) стремление к благу, которое отражается в деятельности души согласно добродетели и способности суждения.

ИИ не обладает понятием блага, стремлением к последовательному самосовершенствованию и моральной агентностью в рамках аристотелевской этики. Его способность суждения инструментальна и напрямую связана с предзаданным набором характеристик, заложенных его разработчиком. Поэтому, согласно этике Аристотеля, принимаемые им решения автоматичны и бессознательны.

Отдельные исследователи стремятся обойти теоретическое ограничение с помощью применения к ИИ нового термина искусственного или функционального фронезиса (способность принимать правильное решение в конкретный момент), предполагающего для интеллектуальных систем способность обучаться на примере различных этических кейсов.

Однако алгоритмы не могут подготовить точную инструкцию по совершению правильных поступков согласно (современной) этике добродетели.

Другое ограничение использования современной этики добродетели в ИИ связано с вероятным конфликтом добродетелей. При разработке социальных роботов это критически важно: например, если в их ценностях будут заложены одновременно способность к состраданию и честность, то возникнет проблема примата одной из них. Детальное прописывание кода и машинное обучение не могут решить эту проблему в рамках (современной) этики добродетели, т.к. ИИ не имеет моральной агентности и добродетели. Принцип середины малоприменим: его сторонники воспринимают его исключительно арифметически и оставляют без должного внимания мнение Аристотеля о необходимости динамичного понимания добродетели в зависимости от ситуации.

Фото: iStock

Тем не менее, по мнению автора, в рамках этики неоаристотелизма можно выделить два направления — экземпляризм (exemplarism) и подход возможностей (capability approach), — предлагающих иное осмысление феномена искусственного интеллекта. 

Ключевая идея экземпляристского подхода в оценке искусственного интеллекта состоит в необходимости следования в своем нравственном поведении моральным образцам, которыми могут выступать выдающиеся личности, являющиеся носителями моральных и интеллектуальных достоинств, и различные нарративы. Такую модель не следует смешивать с имитацией поведенческих паттернов морального образца. Этап подражания дает первичные представления о добродетелях и нравственном поведении, без которых невозможна последующая рефлексия. Результатом рефлексии становится формирование критического отношения к образцам и нарративам и умения контекстуально применять полученные знания, что проявляется в совершении правильных поступков. 

Экземпляризм с его акцентом на моральном агенте переносится и в область машинной этики, что предполагает фундаментально новый подход к пониманию роли и значения социальных роботов в жизни человека. Экземпляристская модель ИИ нацелена на понимание того, как взаимодействие с социальными роботами может способствовать качественному улучшению жизни, созданию условий для морального развития и укреплению добродетели индивидов.

Применение экземпляристской модели в отношении социальных роботов не ограничено, но можно выделить отдельные ниши, где ее использование наиболее успешно и интересно с точки зрения этики: робототехника для обучения детей и роботы, выполняющие ряд психотерапевтических или тьюторских функций. 

Примером позитивного влияния социального робота на моральную рефлексию является опыт использования робота-черепахи Шелли для снижения у детей уровня агрессии и выработки терпеливого отношения. Эксперименты с детьми приблизительно одного возраста (около 13 лет) позволили сделать вывод, что их игровое взаимодействие с роботом привело к формированию у них устойчивого паттерна бережного отношения к животным, а также к успешному обучению коммуникативным навыкам и выработке у них просоциального поведения. Игра с роботом организовывалась в группах, взаимодействие в коллективе ограничивало и снижало деструктивное поведение отдельных участников.

При игре детей с Шелли исследователи могли варьировать время, когда робот мог прятаться в панцире, если дети демонстрировали агрессию по отношению к нему. Если время было слишком кратким, то дети интерпретировали поведение робота как игру и воспринимали это как поощрение агрессии.  

Эта критическая ремарка затрагивает и теоретические основания экземпляризма: в этом случае универсального решения нет, т.к. отношение к роботам в какой-то степени отражает моральный облик человека. Наличие фронезиса и его применение в различных контекстах взаимодействия с ИИ может улучшить ситуацию, если моральный агент не воспринимает взаимодействие как исключительно автоматическое и требующее от него механического воспроизведения «правильных» действий, а рефлексирует по поводу полученного опыта.

В рамках экземпляристского подхода возникает проблема асимметричных отношений между моральным агентом и социальным роботом. Его внешнее сходство с человеком и возможность использования для удовлетворения собственных нужд может стать толчком к возрождению модели отношений «слуга — господин». Такие ситуации могут привести к укоренению негативных поведенческих паттернов. Одним из решений этой проблемы может стать точечная настройка алгоритмов социальных роботов, способных поощрять добродетельное поведение морального агента по отношению к ним и, наоборот, переводить в регистр моральных уроков проявления деструктивного или девиантного поведения.

Применение экземпляристской модели в отношении ИИ, несмотря на определенные трудности, по мнению Валерии Кудряшовой, является многообещающим направлением для групп исследователей, работающих в сфере социальной робототехники. Главное преимущество этого подхода на нынешнем этапе — ориентация на практику и реалистичность: экземпляризм не задается абстрактными вопросами, сможет ли социальный робот обрести моральную агентность в ближайшем будущем и к каким последствиям это приведет, а исходит из понимания ситуации «здесь и сейчас». 

Автор отмечает: экземпляризм — не единственная неоаристотелианская теоретическая основа, позволяющая взглянуть на роль искусственного интеллекта в жизни людей. Предложенный американским философом Мартой Нуссбаум подход возможностей предполагает необходимость обеспечения уважения человеческого достоинства и поддержания минимальной социальной справедливости. При этом сами возможности или субстанциальные свободы каждый человек осуществляет по собственному усмотрению. Поэтому подход Нуссбаум не претендует на универсальность, а, напротив, провозглашает ценностный плюрализм.

Фото: iStock

Этот подход разделяет два вида возможностей: комбинированные и внутренние. Первые представляют набор внешних возможностей, их реализация зависит от социально-политических и экономических условий. Вторые связаны с личностными склонностями, навыками, убеждениями, которые предопределяются или развиваются в зависимости от условий. Например, возможность (свобода) самовыражения — внутренняя возможность, а внешний запрет на отдельные формы ее самовыражения — комбинированная.

Нуссбаумианский подход возможностей, как и экземпляристский, не акцентирует внимание на моральной компоненте ИИ. Он сконцентрирован вокруг морального индивида и человеческого сообщества в целом и качественных характеристик его жизни, претерпевающих ряд изменений из-за внедрения различных технологий, связанных с воздействием систем искусственного интеллекта. 

В теоретическом срезе важным становится определение свободы выбора и/или отказа от различных возможностей: этот компонент используется и в отношении технологий ИИ. Как следствие, первым пунктом является доступность технологий искусственного интеллекта для всех индивидов и сообществ, а из амбивалентного характера возможностей следует второй пункт — необходимость соблюдения права на использование ИИ или отказ от него. Наконец, третий пункт требует создания условий для организации социально-политической жизни общества, при которой согласие на использование технологий ИИ или отказ от них не нарушит минимальной социальной справедливости и не приведет к маргинализации отдельных групп. 

По мнению исследователя НИУ ВШЭ, последний пункт наиболее затруднителен при практической реализации, т.к. повсеместное распространение интеллектуальных систем приводит к изменению традиционных форм социальной жизни и внедрению технологий во всех сферах жизни. Решение этого вопроса возможно только методами правового регулирования и через учреждение государственных стандартов в области применения технологий искусственного интеллекта. 

Этот подход, по мнению Валерии Кудряшовой, представляется плодотворным, поскольку синтезирует человекоориентированный и риск-ориентированный подходы. Благодаря этому синтезу технологии ИИ и их развитие напрямую связаны с последствиями, влияющими на человеческую жизнь. Связь работает и в обратном направлении: при возникновении негативных эффектов внедрения ИИ они должны купироваться и порождать последующее изменение ценностного дизайна ИИ.

В качестве примера она привела возможное применение ИИ при приеме на работу. Сейчас многие компании алгоритмизировали наем работников: первичный отбор кандидатов ведется с помощью технологий на базе искусственного интеллекта, помогающих сократить время поиска и исключить из выборки неподходящих соискателей. Идентичная процедура распространяется и на соискателей, способных, настраивая вручную алгоритмы, расширять или сужать поиск. На первый взгляд это ведет к обоюдному выигрышу. Однако компании при поиске сотрудника могут задавать критерии поиска, дискриминирующие сотрудника по признакам половой, расовой или религиозной принадлежности. Этот фактор создает определенные риски для правильного применения технологий ИИ. 

Фото: iStock

Подход возможностей в контексте этики ИИ сейчас находится на этапе становления: исследования в этой сфере обещают быть востребованными в связи с необходимостью соотнесения человекоориентированного и риск-ориентированного подходов.

Принципы (современной) этики добродетели становятся альтернативой нормативным подходам, они комплексны и имеют свои интерпретативные особенности в сфере прикладной этики — в частности, применительно к искусственному интеллекту. Строгое соответствие этики ИИ аристотелевским и неоаристотелианским идеям невероятно из-за невозможности представить ИИ моральным агентом. Однако, несмотря на определенные ограничения, два неоаристотелианских подхода — экземпляризм и подход возможностей — предлагают качественно иной взгляд на роль искусственного интеллекта в жизни человека и задают новую перспективу для исследований, резюмирует Валерия Кудряшова.

Дата публикации: 23.08.2024

Автор: Павел Аптекарь

Будь всегда в курсе !
Подпишись на наши новости: